AI: una minaccia per l'autenticità?

L’intelligenza artificiale mina l’autenticità del mondo digital?

L'universo del digitale è in continua evoluzione. In particolar modo l’intelligenza artificiale - chiamata anche AI - si sta sviluppando rapidamente condizionando diversi settori, specialmente quello dell’arte online, mettendo in discussione l’idea di autenticità.

 

Questa problematica pareva essere in parte risolta grazie all’avvento degli NFT (“Non-Fungible Token”, in italiano “gettone non riproducibile”) che permettono agli utenti di usufruire di prodotti unici e certificati senza ledere i dati sensibili. Per potenziarsi, però, il software ha sempre bisogno di essere aggiornato attraverso nuove immagini e documenti, di cui si impossessa spesso senza il consenso da parte degli autori, come accade per l’app Lensa AI. 

 

Lensa AI: i 5 punti deboli del trend del momento 

Negli ultimi giorni Instagram e TikTok sono stati invasi dagli avatar. No, non stiamo parlando del sequel del film prodotto dalla 20th Century Studios, ma dell’app Lensa AI di Prisma Labs che, attraverso il caricamento di selfie, è in grado di generare, a pagamento, oltre 50 illustrazioni che trasformano i soggetti ritratti in anime, astronauti, fate eteree o opere d’arte.

 

L’applicazione è frutto dell’algoritmo di intelligenza artificiale di Stable Diffusion, – che ricorda il popolare FaceApp – ed è stata scaricata da oltre 4milioni di persone solo nei primi giorni di dicembre facendola diventare un trend, soprattutto tra le star di Hollywood.

 

Troppo spesso, però, a causa della FOMO (acronimo di “fear of missing out”, ossia la "paura di essere tagliati fuori") si tende a seguire la massa trascurando la sicurezza informatica e i pericoli che si celano dietro alle app; in questo caso sono 5 i punti deboli: privacy, sessismo, percezione distorta di sé, furti di identità e violazione dei diritti d’autore. 

 

1 - Privacy
La gestione dei dati sensibili 

Come vengono utilizzate da Lensa AI le immagini (dato sensibile per antonomasia) che vengono caricate dagli utenti? Gli sviluppatori garantiscono che le foto originali vengono elaborate su server sicuri e cancellate entro 24 ore dal download, mentre le illustrazioni generate dal software rimangono in memoria per allenare l’AI.

A fronte di ciò, chi decide di utilizzare la funzione dell’app “Magic avatar”, - così viene definita l’operazione di creazione immagini -, deve essere consapevole del fatto che il proprio volto potrebbe essere impiegato a scopi pubblicitari senza previo consenso, non rispettando il diritto alla privacy.  

 

2 - Sessismo
Generatore di immagini di nudo 

Le utenti donne hanno constatato che l'intelligenza artificiale tende a creare immagini “porno soft non consensuali” e stereotipi legati ai tratti somatici disabilitando in automatico il filtro NSFW ("not safe for work", ossia l’allarme che indica collegamenti a materiale sessualmente esplicito, volgare o potenzialmente offensivo).

Gli avatar presentano seni enormi, tratti somatici distorti, nudità e pose sessualmente esplicite che potrebbero essere utilizzate da chiunque online per scopi di lucro o ricatto. Questo accade perché l’intelligenza artificiale si basa su un’enorme quantità di dati non filtrati per poi prendere decisioni autonome.  

 

3 - Narcisismo
L’“io” in primo piano
 

Uno degli aspetti più problematici della nostra società è l’ossessione per la percezione che gli altri hanno di noi e di conseguenza la paura di essere esclusi e denigrati. Questo ci spinge a cercare la perfezione e farci apparire, soprattutto sui social network, come le persone vorrebbero che fossimo.

Lensa AI è in grado di fornire in pochi minuti l’aspetto “migliore” da esibire sui profili, ma questo non fa altro che alimentare la paura di presentarsi al mondo per come si è, stravolgendo l’identità personale e l’autenticità della persona. 

 

4 - Deepfake e Fake News
Distinguere il vero dal falso 

Come già detto, l’AI memorizza le illustrazioni generate dal software andando ad alimentare le deepfake, ovvero la combinazione e la sovrapposizione di immagini e video generate con le copie originali tramite una tecnica di apprendimento automatico. 

Questo fenomeno sta colpendo soprattutto i personaggi famosi, sempre più protagonisti di fake news che li ritraggono in atteggiamenti intimi o mentre compiono azioni illegali, ma potrebbe toccare chiunque. Distinguere il vero dal falso diventa sempre più complesso. 

 

5 - Appropriazione di opere d’arte
La rivolta degli artisti 

Uno dei punti che ha fatto più discutere è senza dubbio il furto delle opere d’arte di artisti famosi ed emergenti. La creazione dell’avatar si basa infatti su database di file di immagini esistenti prese dal web, senza previo consenso degli autori, per poi rielaborarle (processo opposto rispetto alla produzione di NFT).

Gli artisti si sono perciò rivolti ai big dei social media per chiedere la rimozione delle illustrazioni, alcune delle quali portano la firma visibile di chi le ha create, senza ricevere sostegno. Il problema non riguarda solo i diritti d’autore, ma anche il fatto che i creator non possano competere con la rapidità e i prezzi bassi dell’intelligenza artificiale.
 

DALL· E 2: dalle parole all’arte 

Oltre all’app Lensa AI, sono tanti i progetti che si stanno sviluppando in questo ambito, come DALL· E 2, l’algoritmo di intelligenza artificiale sviluppato da OpenAI - organizzazione non profit del settore che vanta tra i suoi fondatori Elon Musk - che genera immagini seguendo descrizioni testuali.

 

A differenza della precedente applicazione, il software si serve di illustrazioni esistenti per: 

  • apportare modifiche tramite didascalie in linguaggio semplice  
  • aggiungere e rimuovere elementi tenendo conto di ombre, riflessi e trame 
  • creare diverse varianti ispirandosi all’immagine di partenza 

 

La creazione di nuove opere d’arte, invece, avviene attraverso la comprensione della relazione tra le immagini e il testo utilizzato per descriverle, la cosiddetta tecnica di diffusione, processo su cui si basa anche l’app Dream by Wombo. Si tratta di una figura mai vista prima, nata dal desiderio e dalla creatività dell’autore, a tutti gli effetti un qualcosa di unico e autentico.  

 

ChatGPT: l’AI che risponde alle domande e crea testi 

Fa sempre parte delle sperimentazioni di OpenAI ChatGPT: l’assistente linguistico in grado di capire il linguaggio umano e sostenere conversazioni. Il deep learning è un grande aiuto nella scrittura lineare di testi nozionistici, ma non essendo dotata di spirito critico non sa elaborare risposte personali e logiche. 

 

Con il tempo l’AI potrebbe rivelarsi un alleato per: 

  • rispondere a domande  
  • mantenere conversazioni  
  • elaborare testi complessi nella struttura 
  • traduzioni 
  • classificazioni 
  • estrarre concetti chiave  
  • creare recensioni  

 

ChatGPT non è però esonerata dal commettere errori, anzi essendo una macchina obbedisce ai comandi senza “pensare”; ciò comporta un alto rischio di produzione di disinformazione, nonostante in fase di programmazione siano state imposte alcune regole. Per il momento è quindi l’uomo che deve verificare l’autenticità e preservarla. 

 

Nel 2023 si potrà ancora parlare di autenticità? 

Il progresso non si può fermare e saranno sempre di più i progetti in questo ambito che proveranno a perfezionarsi o addirittura a sostituire il lavoro dell’essere umano. Proprio l’idea di perfezione e il suo perseguimento stanno condizionando molto le nostre vite e mettendo continuamente in dubbio l’autenticità di espressioni, prodotti, opere e rapporti.

 

Nonostante vivano di social e siano i primi ad interessarsi all’AI, i giovani che fanno parte della generazione Z (10-25 anni d’età) stanno prendendo le distanze da ciò che è inteso come impeccabile e costruito preferendo l’imperfezione e la realtà, specialmente nel mondo del lavoro.

 

La domanda sorge quindi spontanea: nel nuovo anno esisterà ancora l’autenticità nell’universo dell’intelligenza artificiale? Se sì, come? A dircelo saranno sia l’avvento delle tecnologie innovative sia la società che ne usufruirà. 

Stay tuned!