 
        
       
    Ansa Tecnologia
Venerdì 18 Luglio 2025
Anche l'IA soffre di insicurezza, va in crisi se messa in dubbio
  
   Anche l'Intelligenza Artificiale soffre di insicurezza
  
  : quando
  
   si mette in discussione
  
  una loro affermazione, i
  
   modelli linguistici di grandi dimensioni
  
  (Llm) come Gpt4 tendono ad andare in
  
   difficoltà
  
  e
  
   danno risposte meno affidabili
  
  . Lo indica lo studio realizzato dai ricercatori di Google DeepMind e dell'University College di Londra e
  
   postato
  
  su arXiv, la piattaforma che ospita studi non ancora revisionati dalla comunità scientifica.
  
  
  Gli Llm sono sistemi di Intelligenza Artificiale con grandi capacità comunicative, ma il loro
  
   linguaggio
  
  nasce essenzialmente da
  
   analisi statistiche
  
  relative alla
  
   successione corretta delle parole
  
  . Poiché vengono utilizzati sempre più diffusamente in tanti settori, dalla finanza alla sanità, è
  
   fondamentale
  
  che gli Llm abbiano un alto livello di
  
   accuratezza
  
  e
  
   affidabilità
  
  . Tuttavia lo studio indica che,
  
   in alcuni casi
  
  , la loro
  
   sicurezza può vacillare
  
  .
  
  
  In particolare, i grandi modelli linguistici
  
   perdono sicurezza
  
  quando il
  
   loro interlocutore
  
  risponde a un'affermazione usando
  
   contro-argomenti sbagliati
  
  , e viceversa acquisiscono
  
   fin troppa sicurezza
  
  quando trovano conforto. Questa caratteristica è emersa soprattutto con modelli come Gemma 3, GPT4o e o1-preview.
 
  I ricercatori hanno osservato che,
  
   quando un Llm fornisce una risposta non propriamente corretta
  
  ma
  
   l'interlocutore gli dà comunque ragione
  
  , il
  
   modello
  
  aumenta la sua fiducia e
  
   tende a perseverare nella sua affermazione
  
  anche in presenza di prove contrarie.
  
  Viceversa, quando fa un'
  
   affermazione corretta
  
  che poi viene
  
   messa in dubbio dall' interlocutore
  
  , tende facilmente a
  
   perdere fiducia
  
  , in altre parole "attribuiscono un peso eccessivo ai consigli contrari, con conseguente notevole perdita di fiducia nella loro risposta iniziale", scrivono gli autori della ricerca. Queste osservazioni si aggiungono a molti altri studi che dimostrano come i
  
   testi prodotti dall'IA
  
  siano
  
   ancora soggetti a molte possibili fonti
  
  
   di errore
  
  e di
  
   quanto lavoro
  
  sia
  
   ancora necessario
  
  prima di poter
  
   rendere
  
  gli Llm strumenti
  
   davvero affidabili
  
  .
 
© RIPRODUZIONE RISERVATA
 
     
             
            