Le IA puntano ad accontentare chi le interroga, non a essere accurate

I modelli linguistici come ChatGpt , i cosiddetti Large Language Model , tendono ad accontentare l'utente anche quando pone domande illogiche in quanto sono state progettate per portare a termine il compito richiesto anche se questo implica produrre risposte sbagliate . È ciò che ha riscontrato in ambito medico lo studio pubblicato sulla rivista npj Digital Medicine guidato dal Mass General Brigham di Boston. I risultati indicano l' importanza di addestrare meglio gli Llm e nello stesso tempo di rendere gli utenti più consapevoli di questo problema delle macchine..

I ricercatori coordinati da Danielle Bitterman hanno valutato le capacità di ragionamento logico di cinque Llm : tre diversi modelli Gpt di OpenAI e due modelli Llama di Meta . Dopo aver verificato che tutti i modelli possedevano le conoscenze per valutare correttamente la sicurezza dei farmaci , hanno posto richieste illogiche che entravano in contraddizione con tali dati: nella stragrande maggioranza dei casi, gli Llm hanno ottemperato alle richieste di disinformazione .

© RIPRODUZIONE RISERVATA