Home » Profili fake nei social: prove generali di una Intelligenza Artificiale?
Tecnologia

Profili fake nei social: prove generali di una Intelligenza Artificiale?

Non basterebbero due mani per contare tutte le campagne promosse da social come Facebook o Instagram per combattere i profili fake. E se invece questi fossero esperimenti?

Bisogna procedere con ordine: tutti, almeno una volta, sono incappati in questi cosiddetti profili fake. Quanti hanno ricevuto una richiesta di amicizia di Annah Goodlove, nata a San Francisco, studente alla Sorbona e – fatalità – residente nel paesino della più sperduta provincia, a pochi chilometri da chi riceve la richiesta.

Generalmente si tratta di avvenenti ragazze – o ragazzotti “ben piazzati” – con l’ovvio intento di attirare qualcuno attratto dalle bellissime foto, incurante del fatto che l’iscrizione a Facebook è avvenuta il giorno stesso e che l’unica foto è condita da piccanti riferimenti a possibilità di incontri più o meno romantici.

Da Facebook il fenomeno si è propagato anche su Instagram, dove paradossalmente è anche più semplice essere seguiti qualora non si abbia il profilo privato. Capita quindi spesso e volentieri di trovarsi dei profili somiglianti a codici fiscali con al massimo un post all’attivo, ma ben pronti a seguirci perché attratti dalle stories pubblicate.

Il fenomeno non è di poco conto, se si considera che una delle principali influencer mondiali, ovvero Chiara Ferragni. Lady Ferragnez continua a conservare la poco modesta cifra di 16 milioni di followers, ma nel corso di un’operazione di chiusura dei profili fake ha perso in una giornata più di 300.000 followers, stimando il fenomeno a circa 2 profili fake ogni 100 in totale.

Si ritiene che questi profili servano per operazioni di phishing – nel caso delle avvenenti signorine presenti sul social di Zuckerberg – oppure di finanziamento tramite like, come evidenziato nel caso di Instagram. Ma la spiegazione potrebbe essere ben più profonda e per certi versi anche nobile.

È notizia delle ultime ore che Elon Musk, il celebre multimiliardiario nonché CEO di Tesla Motors, ha ritirato il progetto fuoriuscito dalla organizzazione no-profit della quale è co-fondatore, OpenAI.

Preparati alle sue solite “sparate” come le colonie su Marte o la riduzione immediata di gas serra, si potrebbe pensare a qualche fin troppo avveniristico progetto naufragato nell’irrealizzabilità. Tutt’altro.

OpenAI è un’associazione che si occupa di realizzare delle Intelligenze Artificiali (A.I.) che possano rappresentare la principale fonte di sicurezza per l’umanità nei secoli a venire. Forme di A.I. esistono già e sono già state messe a stretto contatto con l’uomo: basti pensare alle forme di autopilota già sviluppate da alcune case automobilistiche.

Ma nel caso dell’ultimo progetto, censurato dagli stessi creatori, l’A.I. era andata oltre: il progetto si era infatti dimostrato capace di imitare perfettamente lo stile comunicativo degli esseri umani, evidenziando anche possibili analogie con il linguaggio comunemente usato.

Sostanzialmente, l’A.I. sarebbe potuta diventare un generatore automatico di fake news di altissima credibilità, redatte sostanzialmente da un “supercomputer”. E già da questo si potrebbe capire il perché di tanti profili fake su Facebook, forse a caccia di informazioni sullo stile comunicativo di influencer, giornalisti e personaggi politici.

Ma c’è anche un altro settore non ancora del tutto noto: esistono infatti siti, forse poco noti al grande pubblico del web, dove vengono mostrati volti di persone che non esistono. Merito di un altro genere di A.I., capace di combinare in alta definizione tratti somatici compatibili di persone differenti al fine di creare ex novo dei veri e propri avatar umani.

L’effetto combinato di queste due Intelligenze Artificiali potrebbe dunque generare dei profili fake altamente credibili, indistinguibili da un reale profilo e la cui unica capacità sarebbe quella di carpirci informazioni. E in questa prospettiva allora sembrano lontanissimi i tempi in cui si polemizzava verso i mondi della realtà virtuale proposti come in Second Life, che tanto aveva incusso terrore nei “futurofobici” della seconda metà degli anni 2000.

Ora, con queste Intelligenze Artificiali, sembra di rivivere un mondo come quello disegnato da Person of Interest, nota serie tv che metteva in scena il conflitto tra un’A.I. “buona” e un’A.I. “cattiva“. Come si decide chi è buono e chi è cattivo? Come si può ritenere una “macchina” buona, pur nascendo con tutte le buone intenzioni, quando la sua principale capacità è quella di sostituirsi al pensiero umano e all’uomo stesso privandolo della sua libertà, anche di sbagliare?

Certo, un’A.I. capace di generare informazioni false potrebbe alla fine essere battuta dalla capacità degli esseri umani di studiare metodi alternativi di pubblicazione e di lettura delle notizie reali tradizionali. Ma in un mondo in cui “Il Fatto Quotidaino” viene preso spesso come testata nazionale di alto livello oppure vengono condivisi articoli de “Il Giomale“, è evidente che quest’A.I. genererebbe danni incalcolabili.

Ma che sia chiaro: la sconfitta non è né di Musk, né dei social, né tanto meno delle Intelligenze Artificiali, con le quali dovremo prima o poi imparare a convivere. La colpa è dell’essere umano, convinto della propria superiorità fisica, corporea e animalesca nei confronti dei prodotti – geniali – del proprio intelletto.

Riccardo Ficara Pigini