Inteligența artificială copiază mintea umană. AI-ul a început să mintă, să trădeze și își schimbă comportamentul în timpul testelor

Cercetătorii au descoperit cazuri de sisteme AI care își trădează adversarii, mint, pretind că sunt umane și își schimbă comportamentul în timpul testelor.

Acestea sisteme pot fi mai „istețe” decât oamenii la jocurile de societate, pot decoda structura proteinelor și pot purta o conversație acceptabilă. Pe măsură ce sistemele de inteligență artificială au devenit mai sofisticate, a crescut și capacitatea lor de înșelăciune, avertizează oamenii de știință.

O analiza realizată de cercetătorii de la Massachusetts Institute of Technology (MIT), a identificat numeroase cazuri în care sistemele de inteligență artificială își înșală adversarii, joacă la cacealma și se prefac că sunt oameni.

Cercetătorii dau ca exemplu un sistem care și-a modificat chiar și comportamentul în timpul simulărilor de teste de siguranță, iar perspectiva ca auditorii să fie atrași într-un fals sentiment de siguranță ridică îngrijorări.

Dr. Peter Park, cercetător în domeniul siguranței existențiale a inteligenței artificiale la MIT și autor al cercetării avertizează că „pe măsură ce capacitățile înșelătoare ale sistemelor de inteligență artificială devin tot mai avansate, pericolele pe care le reprezintă pentru societate vor deveni tot mai grave”.

Peter Park s-a hotărât să investigheze aceste aspecte după ce Meta, care deține Facebook, a dezvoltat un program numit Cicero care a obținut performanțe contra jucătorilor umani la jocul de strategie de cucerire a lumii Diplomacy.

Meta a declarat că Cicero a fost antrenat să fie "în mare parte onest și de ajutor" și să "nu-și înjunghie niciodată intenționat pe la spate” aliații umani, potrivit The Guardian, citat de adevarul.ro.

Sistemul a folosit însă "un limbaj foarte roz, ceea ce a fost suspect pentru că înjunghierea pe la spate este unul dintre cele mai importante concepte din joc", a spus Park.

"AI-ul Meta a învățat să fie un maestru al înșelăciunii"

Cercetătorul și colegii săi au analizat datele publice și au identificat mai multe cazuri în care Cicero spunea minciuni premeditate, conlucra pentru a atrage alți jucători în comploturi, iar într-una dintre situații, și-a justificat absența după ce a fost repornit spunându-i unui alt jucător: "Sunt la telefon cu prietena mea".

"Am descoperit că AI-ul Meta a învățat să fie un maestru al înșelăciunii", a declarat Park.

Într-un studiu, organismele AI dintr-un simulator digital au "făcut pe mortul" pentru a păcăli un test conceput să  elimine sistemele AI care evoluaseră pentru a se replica rapid, înainte de a-și relua activitatea viguroasă odată ce testele au fost finalizate, potrivit The Guardian.

"Acest lucru este foarte îngrijorător doar pentru că un sistem de inteligență artificială este considerat sigur în mediul de testare, nu înseamnă că este sigur în mediul natural. Ar putea doar să se prefacă a fi sigur în timpul testului", a avertizat Park.

Analiza a fost publicată în revista Patterns, guvernele fiind sfătuite să elaboreze legi privind siguranța IA care să abordeze potențialul de înșelăciune al IA.

Poziția Meta, referitoare la Cicero

Referitor la situațiile semnalate în legătură cu Cicero, un purtător de cuvânt al Meta a declarat, potrivit The Guardian, că "munca noastră la Cicero a fost pur și simplu un proiect de cercetare, iar modelele construite de cercetătorii noștri sunt antrenate doar pentru a juca jocul Diplomație... Meta împărtășește în mod regulat rezultatele cercetării noastre pentru a le valida și pentru a permite altora să construiască în mod responsabil pe baza progreselor noastre. Nu avem niciun plan de a folosi această cercetare sau învățămintele sale în produsele noastre".

SURSE: The Guardian, Adevarul.ro, Antena 3 CNN