Pericolul cuvintelor care NU EXISTĂ
Un algoritm dezvoltat de un fost programator al reţelei de socializare Instagram a creat ceva interesant. Dar care poate genera un pericol al cuvintelor care nu există, potrivit specialiștilor. Depinde din ce unghi este privit “fenomenul”.
Un nou sistem de Inteligenţă Artificială (AI) a fost creat pentru a genera anumite cuvinte, dar ele nu există! Sistemul poate fi accesat prin intermediul unui website care generează artificial definiţii pentru cuvinte care, de fapt, nu există. Mai exact, ThisWordDoesNotExist.com generează cuvinte noi. Precum „wacamole” (o porţie individuală de aluat de gofre combinat cu un amestec dulce de mălai), „pileset” (formarea unei mase, sau crearea unei forme), ori „prayman” (liderii bărbaţi dintr-o societate sau întreprindere). Website-ul a fost dezvoltat de Thomas Dimson, programatorul care a lucrat pentru Instagram. Și a construit algoritmul pentru recomandări al aplicaţiei, conform Independent.
Poate produce literatură
Website-ul funcţionează cu ajutorul bazelor de date a 8 milioane de pagini web, luate din conţinutul cel mai popular al site-ului de social media Reddit. Algoritmii sunt capabili să depisteze atunci când un cuvânt apare alături de altul. Prin folosirea acestei informaţii şi repetarea acesteia de mai multe ori., AI poate genera noi cuvinte şi propoziţii.
Inteligenţa artificială care generează noi cuvinte este bazată pe Transformers, un algoritm de procesare a limbii naturale, dar şi pe algoritmul GPT-2. Acesta poate prezice ce cuvinte urmează într-un text şi poate produce literatură aproape identică cu cea creată de oameni. GPT-2 şi-a câştigat notorietatea pentru că a fost „prea periculos pentru a fi lansat”…
Mai departe nici nu îndrăznim să ne imaginăm
În acest caz, potrivit specialiștilor, intervin problemele etice, dar și dezastrele despre care au vorbit Stephen Hawking sau Elon Musk. În nenumărate rânduri ei au subliniat că AI e periculoasă și ne poate pecetlui sfârșitul. Dacă ne imaginăm că un supercreier artificial este “îndoctrinat” cu o busolă morală utopică și această inteligență ar decide că suntem răi, că facem rău și ne facem rău… Mai departe nici nu îndrăznim să ne imaginăm.
De fapt sistemele de inteligenţă artificială sunt criticate deseori pentru că nu pot fi reglementate şi pot fi folosite drept arme, potrivit Independent.