A fost deschisă Cutia Pandorei! AI a început să copieze mintea umană: trădează, minte și își schimbă comportamentul
Ceea ce mulți așteptau să se întâmple mai devreme sau mai târziu, a devenit deja realitate: inteligența artificială a început să copieze mintea umană. Cercetătorii au descoperit cazuri în care anumite sisteme AI își trădează adversarii, mint, își schimbă comportamentul în timpul testelor și spun că sunt ființe umane.
Îngroijorător! AI a început să copieze mintea umană: trădează, minte și își schimbă comportamentul
Pe măsură ce sistemele de inteligență artificială au devenit din ce în ce mai sofisticate, a crescut și capacitatea lor de înșelăciune, avertizează oamenii de știință.
Spre exemplu, în cazul jocurilor de societate, s-a descoperit că AI a reușit să trișeze. O analiza realizată de cercetătorii de la Massachusetts Institute of Technology (MIT), a identificat numeroase cazuri în care sistemele de inteligență artificială își înșală adversarii, joacă la cacealma și se prefac că sunt oameni.
Ba chiar un anumit sistem AI și-a modificat comportamentul în timpul simulărilor de teste de siguranță, lucru care provoacă îngrijorări în rândul oamenilor de știință.
Dr. Peter Park, cercetător în domeniul siguranței existențiale a inteligenței artificiale la MIT și autor al cercetării avertizează că „pe măsură ce capacitățile înșelătoare ale sistemelor de inteligență artificială devin tot mai avansate, pericolele pe care le reprezintă pentru societate vor deveni tot mai grave”.
Park a decis să investigheze aceste aspecte după ce Cicero, program dezvoltat de Meta, deținătorul Facebook, a obținut performanțe contra jucătorilor umani la jocul de strategie Diplomacy.
Meta a declarat că Cicero a fost antrenat să fie ”în mare parte onest și de ajutor” și să „nu-și înjunghie niciodată intenționat pe la spate” aliații umani, potrivit The Guardian.
Sistemul a folosit însă „un limbaj foarte roz, ceea ce a fost suspect pentru că înjunghierea pe la spate este unul dintre cele mai importante concepte din joc”, a spus Park.
Împreună cu colegii săi, Peter Park a făcut analize amănunțite asupra datelor publice, identificând mai multe cazuri în care Cicero spunea minciuni premeditate sau conlucra pentru a atrage alți jucători în comploturi. Într-una dintre situații, sistemul și-a justificat absența după ce a fost repornit, spunându-i unui alt jucător: „Sunt la telefon cu prietena mea”.
„Am descoperit că AI-ul Meta a învățat să fie un maestru al înșelăciunii”, a declarat cercetătorul.
Comportament îngrijorător al AI: sistemul a ”făcut pe mortul” pentru a scăpa de o situație
Într-un studiu, organismele AI dintr-un simulator digital au „făcut pe mortul” pentru a păcăli un test conceput să elimine sistemele AI care evoluaseră pentru a se replica rapid, înainte de a-și relua activitatea viguroasă odată ce testele au fost finalizate, arată sursa citată.
„Acest lucru este foarte îngrijorător doar pentru că un sistem de inteligență artificială este considerat sigur în mediul de testare, nu înseamnă că este sigur în mediul natural. Ar putea doar să se prefacă a fi sigur în timpul testului”, a avertizat Park.
Analiza a fost publicată în revista Patterns, guvernele fiind sfătuite să elaboreze legi privind siguranța IA care să abordeze potențialul de înșelăciune al IA.
Ce spune Meta despre cazul Cicero
Referindu-se la situațiile generate de Cicero, care au stârnit îngrijorare în rândul oamenilor de știință și nu numai, un purtător de cuvânt al Meta a declarat:
”Munca noastră la Cicero a fost pur și simplu un proiect de cercetare, iar modelele construite de cercetătorii noștri sunt antrenate doar pentru a juca jocul Diplomație… Meta împărtășește în mod regulat rezultatele cercetării noastre pentru a le valida și pentru a permite altora să construiască în mod responsabil pe baza progreselor noastre. Nu avem niciun plan de a folosi această cercetare sau învățămintele sale în produsele noastre”.