Călătorie virtuală în geoparcurile europene

Prof. Antonela CHIPER

Școala Gimnazială Râu de Mori a organizat în parteneriat cu Geoparcul Internațional UNESCO Țara Hațegului și cu Școala Gimnazială Sarmizegetusa proiectul „Călătorie prin geoparcurile din Europa”.
Grupați în 8 echipe și coordonați de profesori, elevii au descoperit în cadrul acestui proiect diversitatea geologică, frumusețile naturale, bogăția culturală, istoria și tradițiile europene.

Fiecare echipă și-a ales un geoparc din Rețeaua Europeană a Geoparcurilor (#EGN) și a descoperit cât mai multe informații interesante despre acesta și care au fost folosite pentru a realiza prezentări power point și filmulețe.
Echipele au fost creative și s-au referit la elemente comune ce leagă geoparcul european ales de cel din Țara Hațegului și chiar filmulețe personale în cazul în care au făcut anterior o vizită în acel geoparc european.
Echipa școlii noastre și cea a școlii parteneră au realizat standuri de prezentare a Franței, respectiv a Spaniei, țările pe teritoriul cărora se aflau cele 2 geoparcuri alese. La cele două standuri copiii au pregătit mâncare și băutură tradițională, cărți, panouri, steaguri, elemente de identitate specifice.
A fost un proiect inedit pentru elevi, dar și pentru profesori, deoarece au descoperit împreună, printr-o călătorie virtuală în geoparcurile europene locuri istorice, geologie, natura, ape, oamenii, comune și orașe din Europa.
Proiectul – după cum susținea prof. Chiper Antonela (foto), director al Școlii Gimnaziale Râu de Mori – s-a bucurat de o largă participare a școlilor de pe teritoriul Geoparcului (Școala Gimnazială „Aron Densușianu”, Liceul Teoretic „Ion Constantin Brătianu” Hațeg, Școala Gimnazială Râu de Mori, Școala Gimnazială Sarmizegetusa, Școala Gimnazială Sălașu de Sus și Școala Gimnazială Sîntămăria-Orlea), fiindu-ne alături la evenimentul final care a avut loc la Căminul Cultural din localitate.
Au fost alături de noi și ne-au sprijinit pe durata desfășurării proiectului Primăria și Consiliul Local Râu de Mori și doamna bibliotecar Angela Avramescu.

Au consemnat, Ioan Vlad și Georgeta-Ileana Cizmaș/ UZPR

Studiu. Inteligența artificială,tot mai priceputăîn… înșelăciune, dezinformareși manipulare

Sistemele de inteligență artificială (AI) devin rapid din ce în ce mai sofisticate, inginerii și dezvoltatorii lucrând pentru a le face cât mai „umane” posibil. Din păcate, asta poate însemna că acestea încep să poată și… minți la fel cxa oamenii. Un nou studiu al cercetătorilor de la Centrul pentru Siguranța Inteligenței Artificiale din San Francisco arată că platformele AI învață să înșele în moduri care pot avea consecințe de amploare și expune riscurile pe care le relevă această problemă în extindere.

Studiul, publicat în revista Patterns, susține că se manifestă la AI din ce în ce mai mult comportamente înșelătoare, care ar fi îngrijorătoare dacă ar fi afișate de un om.

Cercetarea analizează o gamă largă de exemple în care sistemele AI au învățat cu succes să înșele. În domeniul jocurilor, sistemul AI CICERO, dezvoltat de Meta pentru a juca jocul de strategie Diplomacy, s-a dovedit a fi un mincinos expert, în ciuda eforturilor creatorilor săi de a-l face sincer și de ajutor. CICERO s-a angajat în înșelăciune… premeditată, făcând alianțe cu jucători umani, pentru a-i trăda mai târziu. „Am descoperit că AI dezvoltat de Meta a învățat să fie un maestru al înșelăciunii”, spune specialistul Peter S. Park, într-un comunicat de presă. În mod similar, AlphaStar de la DeepMind, antrenat să joace jocul de strategie în timp real StarCraft II, a învățat să exploateze mecanica de război a jocului pentru a-și induce în eroare adversarii.

Au învățat să trișeze la testele de siguranță

Dar înșelăciunea AI nu se limitează la jocuri. În experimentele care implicau negocieri economice, „agenții” AI au învățat să-și denaturaze preferințele pentru a câștiga avantajul. Și mai îngrijorător, unele sisteme AI au învățat să trișeze la testele de siguranță concepute pentru a le împiedica să se implice în comportamente dăunătoare. Creșterea modelelor de limbaj mari (LLM) precum GPT-4 a deschis noi frontiere în înșelăciunea AI. Aceste sisteme, instruite pe cantități mari de date text, se pot angaja în conversații înspăimântătoare. Sub „ambalajul” prietenos, aceste sisteme învață să înșele în moduri sofisticate. GPT-4, de exemplu, a păcălit cu succes un lucrător uman TaskRabbit să rezolve un test CAPTCHA pentru el, pretinzând că are… o deficiență de vedere. LLM-urile au arătat, de asemenea, o înclinație pentru a-și explica rezultatele în moduri care se îndepărtează sistematic de realitate.

Perspectiva pierderii controlului uman

Riscurile pe care le prezintă înșelăciunea AI sunt numeroase. Pe termen scurt, poate fi folosită de infractori pentru a comite fraude la o scară fără precedent, pentru a răspândi dezinformare și a influența alegerile sau chiar pentru a radicaliza și recruta teroriști. Iar riscurile pe termen lung sunt poate și mai înfricoșătoare. Pe măsură ce încorporăm tot mai mult sistemele AI în viața noastră de zi cu zi și în procesele de luare a deciziilor, capacitatea lor de a înșela ar putea duce la erodarea încrederii, la amplificarea polarizării și a dezinformării și, în cele din urmă, la pierderea controlului uman. „Dezvoltatorii de inteligență artificială nu au o înțelegere sigură a ceea ce cauzează comportamente nedorite de inteligență artificială, cum ar fi înșelăciunea; aceasta îi ajută să-și atingă obiectivele”, spune Park.

Cercetătorii propun o abordare pe mai multe direcții. În primul rând, factorii de decizie politică trebuie să dezvolte cadre de reglementare robuste pentru a evalua și gestiona riscurile prezentate de sistemele AI potențial înșelătoare. Sistemele AI capabile de înșelăciune ar trebui tratate ca fiind cu risc ridicat și trebuie să facă obiectul unor cerințe stricte de documentare, testare, supraveghere și securitate. Factorii de decizie ar trebui, de asemenea, să implementeze legi care necesită dezvăluire clară atunci când utilizatorii interacționează cu un sistem AI și nu cu un om. (redacția UZPR)

Foto: pixabay.com