Vai al contenuto
Home » Tecnologia » Intelligenza artificiale » Quando l’IA diventa un moltiplicatore di caos nelle indagini online

Quando l’IA diventa un moltiplicatore di caos nelle indagini online

La cronaca recente legata all’omicidio di Charlie Kirk, attivista della destra americana, ha mostrato uno dei lati più controversi dell’intelligenza artificiale: la sua capacità di generare non solo contenuti creativi, ma anche disinformazione.

Poche ore dopo l’accaduto, l’FBI ha diffuso alcune immagini sfocate del presunto killer. L’intento era chiaro: stimolare l’aiuto del pubblico per identificare l’individuo. Ma la risposta della rete è stata immediata e inaspettata. Su X e nei forum online sono apparse decine di “ricostruzioni” del volto, ottenute attraverso strumenti di IA generativa.


Come ha sottolineato The Verge, l’IA non possiede alcuna “magia” capace di rivelare dettagli nascosti in un’immagine. Ciò che fa è dedurre, ricostruire, inventare sulla base di modelli probabilistici. Questo significa che un occhio blu, una cicatrice o un taglio di capelli generati dall’algoritmo non hanno alcun legame con la realtà: sono congetture, spesso molto convincenti visivamente, ma completamente fittizie.

Eppure, queste varianti – alcune create con Grok, l’IA integrata in X, altre con ChatGPT – si sono diffuse a macchia d’olio. Il risultato? Una moltitudine di ritratti potenzialmente fuorvianti, che nulla aggiungono alle indagini e molto invece al rumore digitale.


La situazione è degenerata ulteriormente quando i chatbot hanno iniziato a fornire risposte inventate sul presunto assassino. Secondo quanto riportato da The Hindu, sia Grok che ChatGPT hanno attribuito il delitto a un inesistente “democratico dello Utah di nome Michael Mallinson”, citando persino testate autorevoli come CNN e New York Times come fonti di supporto. Un caso lampante di allucinazione dell’IA, ma con implicazioni potenzialmente devastanti.

Questo episodio mette in luce un meccanismo ormai noto: la velocità con cui una notizia si diffonde online scatena una frenetica caccia a nuove informazioni. I social, nel tentativo di offrire risposte immediate, finiscono spesso per amplificare supposizioni, teorie complottiste e bufale. Se a questo si aggiunge la potenza dei sistemi di IA generativa, il rischio di caos informativo diventa esponenziale.


Non è l’IA in sé a “mentire”, ma l’uso che ne facciamo. La fiducia cieca nelle immagini “migliorate” o nei testi generati dai chatbot rivela un deficit di consapevolezza digitale. Pensiamo che l’algoritmo possa offrirci risposte definitive e obiettive, quando in realtà restituisce soltanto probabilità e ricostruzioni ipotetiche.

Il caso Kirk non è solo una vicenda di cronaca, ma un campanello d’allarme: le tecnologie che oggi ci sembrano strumenti innocui di intrattenimento possono diventare fattori di disinformazione massiva, soprattutto quando entrano in gioco eventi delicati come indagini criminali.
La sfida non sarà eliminare l’IA dai processi informativi, ma imparare a gestirne i limiti, distinguendo tra ciò che è un dato e ciò che è soltanto una suggestione artificiale.

Fonte: Ansa