Hackerii perfecționează atacurile cu ChatGPT, avertizează OpenAI și Microsoft
Giganții tehnologici Microsoft și OpenAI trag un semnal de alarmă cu privire la creșterea utilizării instrumentelor de inteligență artificială, precum ChatGPT, în atacurile cibernetice. Cele două companii au emis un avertisment comun, subliniind faptul că hackerii recurg la modele lingvistice pentru a-și îmbunătăți tacticile și pentru a perfecționa atacurile lor.
Avertizări anterioare au fost emise de diverse entități, însă Microsoft și OpenAI aduc dovezi concrete. Conform informațiilor oferite de cele două companii, grupuri de hackeri din China, Rusia, Iran și Coreea de Nord utilizează deja instrumente precum ChatGPT pentru a dezvolta scripturi mai sofisticate și pentru a îmbunătăți tehnicile sociale.
Aceste tehnici îmbunătățite sunt apoi aplicate în crearea de campanii de phishing mai convingătoare, menite să inducă în eroare utilizatorii și să-i determine să furnizeze informații personale sensibile.
În plus, există situații în care implicațiile devin chiar militare. Grupul de hackeri Stontium, susținut de spionajul rus, a utilizat inteligența artificială pentru a sparge protocolul de comunicații al sateliților, pentru a obține informații despre radare și pentru a accesa alți parametri tehnici sensibili.
Avertismentul emis de Microsoft și OpenAI vine în contextul în care propriile lor instrumente de inteligență artificială, precum ChatGPT și Copilot, pot fi exploatate de către hackeri în atacuri cibernetice. Companiile subliniază importanța întăririi securității cibernetice în fața evoluției tehnologice, pentru a preveni posibilele consecințe nefaste ale utilizării abuzive a inteligenței artificiale în scopuri malefice.