
ChatGPT bloccata solo in Italia
Il Garante della privacy ha bloccato ChatGPT, motivando il provvedimento con l’assenza di un’informativa sul trattamento dei dati personali: OpenAI, la startup californiana che ha sviluppato la chatbot conversazionale, non ha mai spiegato agli utenti e a tutti gli interessati come gestisce i dati raccolti.
Tre le principali contestazioni
- Manca “una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali allo scopo di addestrare gli algoritmi che governano il funzionamento della piattaforma”;
- Si configura “un trattamento di dati personali inesatto”, perché le risposte di ChatGPT non sempre sono corrette: fornire informazioni sbagliate sul conto di alcune persone potrebbe comprometterne la reputazione;
- Sebbene ChatGPT si rivolga a chi ha più di 13 anni, non esiste un filtro per il controllo dell’età, esponendo “i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”.
Quella che, nell’intenzione del Garante, doveva costituire una disposizione temporanea, in attesa che OpenAI intraprendesse le misure necessarie ad ottemperare alla normativa europea, si è trasformata in un tiro alla fune che la startup ha risolto velocemente, chiudendo la saracinesca.
Sabato scorso l’Italia si è svegliata col servizio ChatGPT sospeso, e non era un pesce d’aprile.
La nostra è l’unica nazione democratica ad aver adottato un provvedimento tanto drastico: anche in Russia, Cina, Corea del Nord e Iran non è possibile accedere alla piattaforma, ma per scelta di OpenAI, che non la fornisce in quei Paesi.
L’Italia si è auto-sottratta questa opportunità, creando una preoccupante analogia con gli stati autoritari.
Una mossa inedita decisa sulla base della legge europea che, nelle prossime settimane, potrebbe portare un confronto a livello comunitario: non è escluso che altre nazioni possano seguire l’esempio nostrano.
Del resto l’intera Europa ha fronteggiato le problematiche relative alla privacy ricoprendoci di moduli da approvare: clicchiamo su “acconsento” e proseguiamo, senza sapere cosa stiamo accettando.
L’appello degli esperti
La misura del Garante non solo è di discutibile efficacia (basta collegarsi con un Virtual Private Network per aggirare l’ostacolo), ma si inserisce in un contesto di grande preoccupazione riguardo i pericoli dell’intelligenza artificiale, evidenziato dal recente appello dei mille esperti americani che hanno chiesto una moratoria nello sviluppo dei sistemi più avanzati, invitando a rallentare il potenziamento di ChatGPT e affini. Tra i firmatari, oltre al cofondatore di Apple Steve Wozniak, c’è anche Elon Musk, che ha fondato insieme a Sam Altman la stessa OpenAI.
Gli scienziati dell’appello mettono in guardia dai “profondi rischi per la società e per l’umanità intera”, elencando preoccupazioni di varia natura.
La più tradizionale è la stessa che accompagna ogni rivoluzione tecnologica e riguarda il rischio per i posti di lavoro: “Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti?”.
Ma anche l’assottigliarsi dei confini tra realtà e finzione genera inquietudine: “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?”.
Con l’intelligenza artificiale, infatti, la fabbricazione di fake-news compie un salto di qualità grazie alla produzione di immagini che sembrano reali: Donald Trump arrestato dalla polizia, Vladimir Putin in manette, Papa Francesco che indossa un lungo piumino bianco in stile Moncler o Balenciaga.
Le potenzialità di manipolare la nostra ingenuità diventano infinite.
Le conseguenze per il nostro Paese
Ma affrontare i problemi posti dall’AI, che sono enormi, attraverso il blocco di ChatGPT è anacronistico: nessuno può fermare l’innovazione, l’unico risultato sarà quello di rallentare ulteriormente l'Italia, che perderà tempo e opportunità rispetto agli altri Paesi. E se il blocco dovesse estendersi anche all'Application Programming Interface (API)? Si creerebbe un insormontabile svantaggio competitivo per le aziende che, nel nostro Paese, lavorano sulle applicazioni legate a questa tipologia di intelligenza artificiale.
Il deficit di conoscenze può spingere ad agire con strumenti repressivi, ad instaurare un braccio di ferro tra privacy e tecnologia che penalizza le imprese italiane, creando il contesto per scelte radicali come quella di trasferirsi all’estero.