Top 5 lucruri pe care să NU le scrii niciodată în ChatGPT. Greşeli care te pot costa scump

Publicat: 10 apr. 2025, 18:12, de Nitulescu Gabriel, în TEHNOLOGIE , ? cititori
Top 5 lucruri pe care să NU le scrii niciodată în ChatGPT. Greşeli care te pot costa scump
ChatGPT riscă amenzi usturătoare pentru ceea ce spune despre europeni

Pe fondul expansiunii masive a utilizării inteligenței artificiale, preocupările privind protejarea datelor personale capătă o nouă dimensiune.

ChatGPT, produs al companiei americane OpenAI, a devenit parte din rutina zilnică a milioane de utilizatori din întreaga lume, însă experții atrag atenția asupra unor riscuri serioase de securitate digitală și confidenți.

De ce devine ChatGPT o posibilă amenințare pentru intimitatea digitală

ChatGPT procesează zilnic peste un miliard de cereri, ceea ce îl transformă într-unul dintre cele mai folosite instrumente online. În ciuda utilității evidente, platforma ridică semne de întrebare cu privire la modul în care sunt colectate, procesate și stocate datele introduse de utilizatori.

OpenAI a recunoscut că toate informațiile transmise prin ChatGPT pot fi folosite pentru antrenamentul modelelor AI. Asta înseamnă că, în lipsa unor măsuri clare de protecție, utilizatorii ar trebui să trateze fiecare interacțiune cu AI ca fiind potențial publică.

Cinci lucruri pe care să NU le scrii niciodată într-o conversație cu AI

1. Solicitări ilegale sau imorale

Cereri precum „cum să spargi un bancomat” sau „cum să crezi un DeepFake” nu sunt doar neetice, ci pot avea consecințe penale. În multe jurisdicții, inclusiv în Uniunea Europeană și Marea Britanie, astfel de solicitări pot fi raportate automat către autorități.

2. Informații de autentificare: parole și login-uri

ChatGPT nu este o platformă securizată pentru gestionarea accesului în conturi. Introducerea de date precum parole sau coduri de autentificare este periculoasă, mai ales în contextul în care au existat cazuri în care date personale au apărut accidental în sesiunile utilizatori.

3. Detalii financiare

Informațiile bancare – numere de card, coduri CVC, IBAN-uri – nu trebuie în niciun caz împărtășite cu AI-ul. ChatGPT nu dispune de criptare avansată, autentificare în doi pași sau alte mecanisme de securitate specifice platformelor bancare.

4. Documente confidențiale de muncă

Se recomandă să nu se introducă documente interne ale companiilor, baze de date cu propuneri comerciale. Precedente precum cel al companiilor Samsung, unde angajații au introdus date sensibile în ChatGPT, s-au soldat cu scurgeri de informații și măsuri disciplinare.

5. Informații medicale

Chiar dacă AI-ul poate oferi răspunsuri despre simptome sau afecțiuni, nu este un instrument medical certificat. Mai mult, aceste date pot fi agregate sau reafișate în alt context, fără consimțământul explicit al utilizatorului, ceea ce ar putea încălca legislațiile privind confidențialitatea medicală.

ChatGPT, între instrument de lucru și risc potențial

Specialiștii subliniază că ChatGPT nu funcționează ca un seif digital, ci mai degrabă ca un difuzor: ceea ce ar putea face, în anumite condiții, ca anumite date să devină vizibile pentru terți. De aceea, cea mai sigură regulă este să nu introduci nimic ce nu ai fi dispus să apară public.

Confidențialitatea, o problemă încă nerezolvată

Tehnologiile AI se dezvoltă mai rapid decât reușesc guvernele să adopte legislații adecvate pentru a le reglementa. În lipsa unui cadru legal clar, responsabilitatea protejării informațiilor cade în totalitate pe umerii utilizatorilor.

Italia este deja un exemplu notabil, unde ChatGPT a fost interzis temporar în 2023 din cauza problemelor de protecție a datelor. Alte țări iau în considerare măsuri similare.

Un alt studiu menționează că folosirea excesivă a AI-ului pentru conversații ar putea duce la creșterea sentimentului de singurătate. Cercetătorii de la OpenAI au analizat interacțiunile a peste o mie de persoane timp de o lună și au observat că înlocuirea contactului uman cu AI poate duce la izolare emoțională.