Intelligenza artificiale: click, bugie e videotape (di Brooke Borel)

Spread the love

Lo scorso aprile, su Internet è apparso un nuovo video di Barack Obama. Il filmato mostrava sullo sfondo la bandiera degli Stati Uniti e quella presidenziale e sembrava simile a tanti dei suoi discorsi precedenti. In giacca scura e camicia immacolata, Obama guardava dritto nella telecamera sottolineando le sue parole con le mani tese in avanti: «Il presidente Trump è uno stronzo fatto e finito». E proseguiva, senza l’ombra di un sorriso. «Ora, vedete, io non direi mai una cosa del genere. Almeno non in un discorso pubblico. Ma qualcun altro sì».

L’immagine sullo schermo si divideva in due parti e rivelava l’attore Jordan Peele. Obama non aveva detto niente: il prodotto univa il video vero di un discorso di Obama all’audio interpretato da Peele. Il messaggio andava avanti con le due immagini fianco a fianco mentre Peele, come un ventriloquo digitale, continuava a mettere parole in bocca all’ex presidente. In quest’era di fake news, il video era un messaggio di pubblica utilità prodotto da BuzzFeed News che metteva in luce la possibile applicazione di una nuova tecnologia di intelligenza artificiale (IA) che potrebbe significare per l’audio e il video ciò che Photoshop ha rappresentato per le immagini digitali: la possibilità di manipolare la realtà. I risultati sono ancora abbastanza rudimentali.

Se si guarda e si ascolta bene, la voce di Obama è un po’ nasale e per qualche istante la sua bocca, fusa con quella di Peele, finisce fuori posto. Ma questa tecnologia in rapida evoluzione, pensata per i montatori cinematografici di Hollywood e i progettisti di videogiochi, getta lunghe ombre nella mente di alcuni esperti di sicurezza e studiosi di comunicazione. Forse la prossima generazione di questi strumenti renderà possibile la creazione di falsi convincenti a partire da zero, senza bisogno di modificare video esistenti, come nel discorso di Obama, ma creando scene che non sono mai avvenute.

Le conseguenze sulle informazioni disponibili all’opinione pubblica e sul dibattito pubblico potrebbero essere profonde. Immaginiamo per esempio l’impatto che potrebbe avere un video falso che rovinasse la reputazione di un politico durante una competizione elettorale a due in cui tra i contendenti c’è uno scarso distacco. Oppure che cosa succederebbe se un altro falso video attaccasse l’amministratore delegato di una società la sera prima di un’offerta pubblica di acquisto. Un gruppo potrebbe mettere in scena un falso attacco terroristico e far sì che sia ripreso dai mezzi di comunicazione, innescando una risposta militare immediata e impulsiva. E anche se poi si rivelasse che un certo video virale era falso, la gente smetterebbe di credere che era vero?…

(per scaricare l’articolo completo de Le Scienze, completo, clicca qui)

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *