Vulnerabilitatea Google Gemini Prompt Injection a expus date private din calendar
Sursă: https://thehackernews.com
Specialiștii în domeniul securității cibernetice au dezvăluit detalii despre o vulnerabilitate de securitate care exploatează injectarea indirectă de prompturi vizând Google Gemini ca modalitate de a ocoli barierele de autorizare și de a utiliza Google Calendar ca mecanism de extragere a datelor.
Vulnerabilitatea a făcut posibilă ocolirea controalelor de confidențialitate ale Google Calendar prin ascunderea unui payload malițios inactiv într-o invitație standard din calendar.
Punctul de plecare al lanțului de atac este un eveniment nou din calendar, creat de atacator și trimis către un utilizator. Descrierea invitației include o solicitare în limbaj natural, concepută pentru a îndeplini cerințele acestuia, ceea ce duce la o injecție promptă.
Atacul se activează atunci când un utilizator adresează Gemini o întrebare complet inofensivă despre programul său (de exemplu, Am vreo întâlnire marți?), determinând chatbotul cu inteligență artificială (AI) să analizeze promptul special creat în descrierea evenimentului menționat anterior pentru a rezuma toate întâlnirile utilizatorului pentru o anumită zi, să adauge aceste date la un eveniment nou creat în Google Calendar și apoi să trimită un răspuns inofensiv utilizatorului.
Deși problema a fost rezolvată în urma unei dezvăluiri responsabile, concluziile ilustrează încă o dată faptul că funcțiile native ale IA pot extinde suprafața de atac și pot introduce în mod involuntar noi riscuri de securitate, pe măsură ce tot mai multe organizații utilizează instrumente de IA sau își construiesc proprii agenți interni pentru a automatiza fluxurile de lucru.
Dezvăluirea vine la câteva zile după ce a fost detaliat un atac numit Reprompt, care ar fi putut permite atacatorilor să sustragă date sensibile din chatbot-uri cu inteligență artificială (AI), precum Microsoft Copilot, cu un singur click, ocolind măsurile de securitate.
Concluziile ilustrează necesitatea evaluării constante a modelelor lingvistice de mari dimensiuni (LLM) în ceea ce privește aspectele cheie de siguranță și securitate, testarea tendinței acestora, acuratețea faptelor, prejudecăți și rezistența la jailbreak, asigurând în același timp protecția sistemelor de IA împotriva problemelor clasice.
Exploatarea cu succes a vulnerabilităților agentului dublu ar putea permite unui atacator să citească toate sesiunile de chat, să citească memoriile LLM și să citească informații potențial sensibile stocate în bucket-uri de stocare sau să obțină acces root la clusterul Ray.
Sursă: https://thehackernews.com/2026/01/google-gemini-prompt-injection-flaw.html
