Microsoft spune ca rivalii americani incep sa foloseasca inteligenta artificiala generativa in operatiuni cibernetice ofensive

Microsoft a declarat ca adversarii SUA – in special Iranul si Coreea de Nord si, intr-o masura mai mica, Rusia si China – incep sa-si foloseasca inteligenta artificiala generativa pentru a organiza sau organiza operatiuni cibernetice ofensive. Gigantul tehnologic si partenerul de afaceri OpenAI a spus ca au detectat si au intrerupt impreuna utilizarea de catre actorii cibernetici rau intentionati a tehnologiilor lor AI, inchizandu-si conturile.

Intr-o postare pe blog, Microsoft a spus ca tehnicile folosite au fost „in stadiu incipient” si nici „deosebit de noi sau unice”, dar este important sa le expunem public, deoarece adversarii americani folosesc modele de limbi mari pentru a-si extinde capacitatea de a incalca retelele si de a exercita influenta. operatiuni.

Firmele de securitate cibernetica au folosit de mult timp invatarea automata in aparare, in principal pentru a detecta comportamentul anormal in retele. Dar criminalii si hackerii ofensivi il folosesc si ei, iar introducerea modelelor de limbi mari conduse de ChatGPT de la OpenAI a imbunatatit jocul pisica si soarecele.

Microsoft a investit miliarde de dolari in OpenAI, iar anuntul de miercuri a coincis cu lansarea unui raport care mentioneaza ca AI generativa este de asteptat sa imbunatateasca ingineria sociala rau intentionata, ducand la deepfake-uri mai sofisticate si la clonarea vocii. O amenintare la adresa democratiei intr-un an in care peste 50 de tari vor organiza alegeri, amplificand dezinformarea si care se intampla deja,

Iata cateva exemple oferite de Microsoft. In fiecare caz, a spus ca toate conturile si activele AI generative ale grupurilor numite au fost dezactivate:

— Grupul nord-coreean de spionaj cibernetic cunoscut sub numele de Kimsuky a folosit modelele pentru a cerceta grupuri de reflectie straine care studiaza tara si pentru a genera continut care ar putea fi folosit in campanii de hacking de tip spear-phishing.

— Garda Revolutionara a Iranului a folosit modele in limbaj mare pentru a ajuta la inginerie sociala, la depanarea erorilor software si chiar pentru a studia modul in care intrusii ar putea evita detectarea intr-o retea compromisa. Aceasta include generarea de e-mailuri de phishing „inclusiv unul care pretinde ca provine de la o agentie internationala de dezvoltare si altul care incearca sa atraga feministe proeminente catre un site web despre feminism creat de atacatori”. AI ajuta la accelerarea si cresterea productiei de e-mail.

— Unitatea rusa de informatii militare GRU cunoscuta sub numele de Fancy Bear a folosit modelele pentru a cerceta tehnologiile prin satelit si radar care ar putea avea legatura cu razboiul din Ucraina.

— Grupul chinez de spionaj cibernetic cunoscut sub numele de Aquatic Panda – care vizeaza o gama larga de industrii, invatamant superior si guverne din Franta pana in Malaezia – a interactionat cu modelele „in moduri care sugereaza o explorare limitata a modului in care LLM-urile isi pot spori operatiunile tehnice”.

— Grupul chinez Maverick Panda, care a vizat contractorii americani de aparare printre alte sectoare de mai bine de un deceniu, a avut interactiuni cu modele de limba larga, sugerand ca le evalueaza eficienta ca sursa de informatii „pe subiecte potential sensibile, indivizi de mare profil, geopolitica regionala, influenta SUA si afacerile interne.”

Intr-un blog separat publicat miercuri, OpenAI a spus ca actualul sau model de chatbot GPT-4 ofera „numai capacitati limitate, incrementale pentru sarcini de securitate cibernetica rau intentionate, dincolo de ceea ce este deja realizabil cu instrumente disponibile public, care nu sunt alimentate de AI”.

Cercetatorii in securitate cibernetica se asteapta ca acest lucru sa se schimbe.

In aprilie anul trecut, directorul Agentiei SUA pentru Securitate Cibernetica si Securitate a Infrastructurii, Jen Easterly, a declarat Congresului ca „exista doua amenintari si provocari de epoca. Unul este China, iar celalalt este inteligenta artificiala.”

Easterly a spus la acea vreme ca SUA trebuie sa se asigure ca AI este construita avand in vedere securitatea.

Criticii lansarii publice a ChatGPT in noiembrie 2022 – si lansarile ulterioare de catre concurenti, inclusiv Google si Meta – sustin ca a fost iresponsabil de grabit, avand in vedere ca securitatea a fost in mare masura o idee ulterioara in dezvoltarea lor.

„Desigur, actorii rai folosesc modele in limbaj mare – aceasta decizie a fost luata cand a fost deschisa Cutia Pandorei”, a declarat Amit Yoran, CEO al firmei de securitate cibernetica Tenable.

Unii profesionisti in securitate cibernetica se plang de crearea si comercializarea de catre Microsoft de instrumente pentru a aborda vulnerabilitatile in modelele de limbi mari, atunci cand s-ar putea concentra mai responsabil pe a le face mai sigure.

„De ce sa nu creati modele de fundatie LLM cu cutie neagra mai sigure in loc sa vindeti instrumente defensive pentru o problema pe care o ajuta sa o creeze?” a intrebat Gary McGraw, un veteran al securitatii computerelor si co-fondator al Institutului Berryville de invatare automata.

Profesorul NYU si fostul ofiter sef al securitatii AT&T, Edward Amoroso, a spus ca, desi utilizarea AI si a modelelor in limbaj mari ar putea sa nu reprezinte o amenintare imediata evidenta, ele „vor deveni in cele din urma una dintre cele mai puternice arme din ofensa militara a fiecarui stat national”.