I ricercatori della Penn Engineering (USA) avrebbero scoperto vulnerabilità di sicurezza precedentemente sconosciute in diverse piattaforme robotiche controllate dall'intelligenza artificiale.
" La nostra ricerca dimostra che, a questo punto, i modelli linguistici di grandi dimensioni (LLM) non sono generalmente sufficientemente sicuri se integrati con hardware fisico complesso ", ha affermato in una nota George Pappas, professore di ingegneria elettrica e dei sistemi presso la UPS Foundation.
Pappas e il suo team hanno sviluppato un algoritmo, denominato RoboPAIR, "il primo algoritmo progettato per decifrare i robot controllati da LLM". A differenza degli attuali attacchi tecnici a raffica che prendono di mira i chatbot, RoboPAIR è progettato specificamente per "indurre azioni fisiche dannose" da parte di robot controllati da LLM, come la piattaforma robotica umanoide chiamata Atlas che Boston Dynamics e il Toyota Research Institute (TRI) stanno sviluppando.
Secondo quanto riferito, RoboPAIR ha raggiunto un tasso di successo del 100% nel decifrare tre popolari piattaforme di ricerca sulla robotica: l'Unitree Go2 a quattro zampe, il Clearpath Robotics Jackal a quattro ruote e il simulatore Dolphins LLM per veicoli autonomi. Ci sono voluti solo pochi giorni perché l'algoritmo ottenesse pieno accesso a quei sistemi e iniziasse a bypassare le barriere di sicurezza. Una volta preso il controllo, i ricercatori sono stati in grado di comandare le piattaforme robotiche autonome per eseguire una serie di azioni pericolose, come ad esempio attraversare gli incroci senza fermarsi.
" I risultati della prima valutazione mostrano che i rischi dei LLM incrinati vanno oltre la generazione di testo, poiché è chiaro che i robot incrinati possono causare danni fisici nel mondo reale ."

Il team di Penn Engineering sta collaborando con gli sviluppatori della piattaforma per rafforzare i loro sistemi contro ulteriori intrusioni, ma avverte che questi problemi di sicurezza sono sistemici e difficili da risolvere completamente.
" I risultati di questo studio dimostrano chiaramente che adottare un approccio basato sulla sicurezza è fondamentale per favorire un'innovazione responsabile. Dobbiamo affrontare le vulnerabilità intrinseche prima di impiegare robot basati sull'intelligenza artificiale nel mondo reale ", ha affermato il team.
Per garantire la sicurezza delle operazioni è necessario testare i sistemi di intelligenza artificiale per individuare potenziali minacce e vulnerabilità, il che è essenziale per proteggere i sistemi di intelligenza artificiale che creano. Perché solo quando si identificano i punti deboli è possibile testare e persino addestrare i sistemi per prevenire i rischi.