I ricercatori dell'Università di Würzburg e dell'Istituto Max-Planck per lo Sviluppo Umano hanno addestrato un modello di intelligenza artificiale per individuare le bugie e questo potrebbe sconvolgere il nostro modo di relazionarci.
Gli esseri umani non sono bravi a capire se una persona sta mentendo o dicendo la verità. Gli esperimenti dimostrano che il nostro tasso di successo si aggira intorno al 50% nel migliore dei casi e questo scarso rendimento determina il modo in cui ci confrontiamo con gli altri.
La teoria della verità di default (TDT) afferma che le persone di solito danno per scontato che ciò che una persona dice loro sia vero. Il costo sociale di chiamare la persona bugiarda è un rischio troppo grande con la nostra capacità di individuare le bugie al 50/50 e il fact-checking non è sempre pratico in quel momento.
I poligrafi e altre tecnologie di rilevamento della menzogna possono rilevare dati come gli indicatori di stress e i movimenti degli occhi, ma non è probabile che ne usiate uno nella vostra prossima conversazione. L'intelligenza artificiale potrebbe aiutare?
La carta spiega come il team di ricerca ha addestrato il BERT LLM di Google a rilevare quando le persone mentono.
I ricercatori hanno reclutato 986 partecipanti e hanno chiesto loro di descrivere i loro piani per il fine settimana con una spiegazione successiva a sostegno della veridicità della loro affermazione.
Sono stati poi presentati i programmi del fine settimana di un altro partecipante e gli è stato chiesto di scrivere una falsa dichiarazione di supporto sostenendo che si trattava in realtà dei suoi programmi per il fine settimana.
Il BERT è stato addestrato su 80% delle 1.536 dichiarazioni ed è stato poi incaricato di valutare la veridicità del resto delle dichiarazioni.
Il modello è stato in grado di etichettare accuratamente un'affermazione come vera o falsa con un'accuratezza di 66,86%, significativamente migliore rispetto ai giudici umani che hanno ottenuto un tasso di accuratezza di 46,47% in ulteriori esperimenti.
Usereste una macchina della verità AI?
I ricercatori hanno scoperto che quando ai partecipanti è stata presentata l'opzione di utilizzare il modello di rilevamento delle bugie dell'IA, solo un terzo ha deciso di accettare l'offerta.
Coloro che hanno scelto di utilizzare l'algoritmo hanno quasi sempre seguito la previsione algoritmica accettando l'affermazione come vera o accusandola di mentire.
I partecipanti che hanno richiesto le previsioni algoritmiche hanno dimostrato tassi di accusa di quasi 85% quando hanno suggerito che l'affermazione era falsa. La linea di base di coloro che non hanno richiesto previsioni automatiche è stata di 19,71%.
Le persone che sono aperte all'idea di una macchina della verità IA sono più propense a dire "no" quando vedono la luce rossa lampeggiare.
I ricercatori suggeriscono che "una spiegazione plausibile è che un algoritmo di rilevamento delle bugie disponibile offra l'opportunità di trasferire la responsabilità delle accuse da se stessi al sistema di apprendimento automatico".
Non sono io a dare del bugiardo a te, ma la macchina".
Questo cambia tutto
Cosa succederebbe nelle nostre società se le persone avessero una probabilità 4 volte maggiore di iniziare a darsi del bugiardo a vicenda?
I ricercatori hanno concluso che se le persone si affidassero all'IA come arbitro della verità, questa potrebbe avere un forte potenziale dirompente.
Il documento osserva che "un alto tasso di accuse può mettere a dura prova il nostro tessuto sociale, favorendo una sfiducia generalizzata e aumentando ulteriormente la polarizzazione tra gruppi che già hanno difficoltà a fidarsi l'uno dell'altro".
Una macchina della verità AI accurata avrebbe anche un impatto positivo. Potrebbe identificare la disinformazione e le fake news generate dall'IA, aiutare nelle trattative commerciali o combattere le frodi assicurative.
Che dire dell'etica dell'uso di uno strumento come questo? Gli agenti di frontiera potrebbero usarlo per capire se la richiesta di asilo di un migrante è vera o una montatura opportunistica?
Modelli più avanzati del BERT probabilmente spingeranno l'accuratezza della rilevazione delle menzogne da parte dell'IA verso un punto in cui i tentativi di inganno da parte dell'uomo diventeranno fin troppo facili da individuare.
I ricercatori hanno concluso che la loro "ricerca sottolinea l'urgente necessità di un quadro politico completo per affrontare l'impatto degli algoritmi di rilevamento delle bugie alimentati dall'IA".