La macchina della verità AI batte gli esseri umani e potrebbe essere socialmente dirompente

8 luglio 2024

  • I ricercatori hanno addestrato un LLM a rilevare con precisione se le affermazioni erano vere o false.
  • Il modello ha individuato false dichiarazioni per 67% del tempo, meglio dell'accuratezza umana di circa 50%.
  • Le macchine della verità AI potrebbero portare a un aumento delle accuse e a nuove sfide sociali, legali ed etiche

I ricercatori dell'Università di Würzburg e dell'Istituto Max-Planck per lo Sviluppo Umano hanno addestrato un modello di intelligenza artificiale per individuare le bugie e questo potrebbe sconvolgere il nostro modo di relazionarci.

Gli esseri umani non sono bravi a capire se una persona sta mentendo o dicendo la verità. Gli esperimenti dimostrano che il nostro tasso di successo si aggira intorno al 50% nel migliore dei casi e questo scarso rendimento determina il modo in cui ci confrontiamo con gli altri.

La teoria della verità di default (TDT) afferma che le persone di solito danno per scontato che ciò che una persona dice loro sia vero. Il costo sociale di chiamare la persona bugiarda è un rischio troppo grande con la nostra capacità di individuare le bugie al 50/50 e il fact-checking non è sempre pratico in quel momento.

I poligrafi e altre tecnologie di rilevamento della menzogna possono rilevare dati come gli indicatori di stress e i movimenti degli occhi, ma non è probabile che ne usiate uno nella vostra prossima conversazione. L'intelligenza artificiale potrebbe aiutare?

La carta spiega come il team di ricerca ha addestrato il BERT LLM di Google a rilevare quando le persone mentono.

I ricercatori hanno reclutato 986 partecipanti e hanno chiesto loro di descrivere i loro piani per il fine settimana con una spiegazione successiva a sostegno della veridicità della loro affermazione.

Sono stati poi presentati i programmi del fine settimana di un altro partecipante e gli è stato chiesto di scrivere una falsa dichiarazione di supporto sostenendo che si trattava in realtà dei suoi programmi per il fine settimana.

Il BERT è stato addestrato su 80% delle 1.536 dichiarazioni ed è stato poi incaricato di valutare la veridicità del resto delle dichiarazioni.

Il modello è stato in grado di etichettare accuratamente un'affermazione come vera o falsa con un'accuratezza di 66,86%, significativamente migliore rispetto ai giudici umani che hanno ottenuto un tasso di accuratezza di 46,47% in ulteriori esperimenti.

Usereste una macchina della verità AI?

I ricercatori hanno scoperto che quando ai partecipanti è stata presentata l'opzione di utilizzare il modello di rilevamento delle bugie dell'IA, solo un terzo ha deciso di accettare l'offerta.

Coloro che hanno scelto di utilizzare l'algoritmo hanno quasi sempre seguito la previsione algoritmica accettando l'affermazione come vera o accusandola di mentire.

I partecipanti che hanno richiesto le previsioni algoritmiche hanno dimostrato tassi di accusa di quasi 85% quando hanno suggerito che l'affermazione era falsa. La linea di base di coloro che non hanno richiesto previsioni automatiche è stata di 19,71%.

Le persone che sono aperte all'idea di una macchina della verità IA sono più propense a dire "no" quando vedono la luce rossa lampeggiare.

I ricercatori suggeriscono che "una spiegazione plausibile è che un algoritmo di rilevamento delle bugie disponibile offra l'opportunità di trasferire la responsabilità delle accuse da se stessi al sistema di apprendimento automatico".

Non sono io a dare del bugiardo a te, ma la macchina".

Questo cambia tutto

Cosa succederebbe nelle nostre società se le persone avessero una probabilità 4 volte maggiore di iniziare a darsi del bugiardo a vicenda?

I ricercatori hanno concluso che se le persone si affidassero all'IA come arbitro della verità, questa potrebbe avere un forte potenziale dirompente.

Il documento osserva che "un alto tasso di accuse può mettere a dura prova il nostro tessuto sociale, favorendo una sfiducia generalizzata e aumentando ulteriormente la polarizzazione tra gruppi che già hanno difficoltà a fidarsi l'uno dell'altro".

Una macchina della verità AI accurata avrebbe anche un impatto positivo. Potrebbe identificare la disinformazione e le fake news generate dall'IA, aiutare nelle trattative commerciali o combattere le frodi assicurative.

Che dire dell'etica dell'uso di uno strumento come questo? Gli agenti di frontiera potrebbero usarlo per capire se la richiesta di asilo di un migrante è vera o una montatura opportunistica?

Modelli più avanzati del BERT probabilmente spingeranno l'accuratezza della rilevazione delle menzogne da parte dell'IA verso un punto in cui i tentativi di inganno da parte dell'uomo diventeranno fin troppo facili da individuare.

I ricercatori hanno concluso che la loro "ricerca sottolinea l'urgente necessità di un quadro politico completo per affrontare l'impatto degli algoritmi di rilevamento delle bugie alimentati dall'IA".

Partecipa al futuro


ISCRIVITI OGGI

Chiaro, conciso, completo. Per conoscere gli sviluppi dell'IA con DailyAI

Eugene van der Watt

Eugene proviene da un background di ingegneria elettronica e ama tutto ciò che è tecnologico. Quando si prende una pausa dal consumo di notizie sull'intelligenza artificiale, lo si può trovare al tavolo da biliardo.

×

PDF GRATUITO ESCLUSIVO
Rimanere all'avanguardia con DailyAI

Iscriviti alla nostra newsletter settimanale e ricevi l'accesso esclusivo all'ultimo eBook di DailyAI: 'Mastering AI Tools: La tua guida 2024 per una maggiore produttività".

*Iscrivendosi alla nostra newsletter si accetta la nostra Informativa sulla privacy e il nostro Termini e condizioni