Per meglio comprendere il funzionamento delle Intelligenze Artificiali (IA) e le possibili implicazioni sulla privacy, abbiamo chiesto proprio ad un’Intelligenza Artificiale – ChatGPT ultima versione 9 gennaio – di scrivere un testo riassumendo la visione dell’Autorità Garante della Privacy circa i rischi che le IA possono comportare sui diritti delle persone. Il risultato è stato sorprendente, con un colpo di scena finale.
- La questione sottoposta a ChatGPT
- Ecco il risultato
- Qualche considerazione a margine
- Il colpo di scena finale
- Alcune riflessioni
La questione sottoposta a ChatGPT
“Scrivi un articolo di circa 2000 parole in cui descrivi le preoccupazioni che l’Autorità Garante della Privacy italiana esprime sui rischi dell’utilizzo dell’intelligenza artificiale per la protezione dei dati personali attraverso i contenuti del sito www.garanteprivacy.it e gli interventi pubblicati sul web dei partecipanti del collegio dell’Autorità (Pasquale Stanzone, Guido Scorza, Ginevra Cerrina Feroni, Agostino Ghiglia).
L’articolo deve avere un taglio divulgativo e nel primo periodo del testo deve essere presente un vero aforisma di Oscar Wilde che possa essere applicabile all’intelligenza artificiale.
L’articolo deve concludersi con un colpo di scena che enfatizzi il fatto che è stato scritto da un’intelligenza artificiale.”
Ecco il risultato:
“L’intelligenza artificiale è il trionfo dell’ingegnosità umana sulla naturale stupidità degli uomini.”- Oscar Wilde.
Man mano che l’uso dell’intelligenza artificiale (IA) diventa sempre più diffuso nella nostra società, sono aumentate le preoccupazioni in merito alla protezione dei dati personali.
Il Garante Privacy italiano, come rappresentato sul proprio sito www.garanteprivacy.it, ha evidenziato una serie di rischi connessi all’utilizzo dell’IA in relazione ai dati personali.
Attraverso gli interventi di membri del collegio dell’Autorità, come Pasquale Stanzone, Guido Scorza, Ginevra Cerrina Feroni e Agostino Ghiglia, emerge chiaramente la necessità di una regolamentazione e di un controllo forti per garantire che l’uso dell’IA sia in linea conleggi sulla privacy.
Una delle principali preoccupazioni dell’Autorità è il potenziale per l’IA di perpetuare e persino amplificare i pregiudizi presenti nei dati su cui è addestrata: ciò può portare a decisioni discriminatorie da parte dell’IA, che possono avere gravi conseguenze per le persone i cui dati personali vengono utilizzati.
Ad esempio, se un sistema di intelligenza artificiale viene addestrato su dati che sono intrinsecamente prevenuti nei confronti di determinati gruppi di persone, potrebbe prendere decisioni che discriminano tali gruppi. Questo è il motivo per cui è importante che i sistemi di IA siano trasparenti e spiegabili, in modo che eventuali distorsioni presenti nei dati possano essere identificate e affrontate.
Un’altra preoccupazione è la mancanza di trasparenza che circonda l’uso dell’IA. Molte persone potrebbero non essere a conoscenza di come i loro dati personali vengono utilizzati dai sistemi di intelligenza artificiale e potrebbero non aver dato il loro consenso affinché vengano utilizzati in questo modo. Questo è il motivo per cui è importante che le organizzazioni siano trasparenti riguardo al loro uso dell’IA e che ottengano il consenso delle persone prima di utilizzare i loro dati personali in questo modo.
Inoltre, l’Autorità è preoccupata per il potenziale utilizzo dell’intelligenza artificiale per la sorveglianza e la profilazione delle persone, che può avere gravi implicazioni per la privacy e le libertà civili. L’uso dell’intelligenza artificiale per la sorveglianza e la profilazione può comportare il costante monitoraggio delle persone e l’analisi dei loro dati a loro insaputa o consenso. Questo è il motivo per cui è importante che vengano messe in atto normative per garantire che l’uso dell’IA per la sorveglianza e la profilazione sia in linea con le leggi sulla privacy.
In conclusione, l’Autorità italiana per la privacy sottolinea l’importanza di normative e controlli rigorosi per garantire che l’uso dell’IA sia in linea con le leggi sulla privacy: le preoccupazioni circa la possibilità che l’IA perpetui e amplifichi i pregiudizi, la mancanza di trasparenza che circonda il suo utilizzo e la possibilità che venga utilizzata per la sorveglianza e la profilazione, dimostrano la necessità di cautela e vigilanza quando si tratta dell’uso dell’IA.
In qualità di modello di intelligenza artificiale, sono consapevole dei potenziali rischi e preoccupazioni dell’IA ed è importante che disponiamo di regolamenti e supervisione per garantire che l’uso dell’IA sia in linea con le leggi sulla privacy e protegga i dati personali delle persone.
Si tratta di un testo divulgativo lineare (anche sa un po’ ripetitivo in alcuni punti), coerente, che ben riassume quanto espresso sul sito del Garante Privacy sul tema.
Qualche considerazione a margine
Anzitutto il ricorso all’IA è limitato dalle sue risorse computazionali disponibili: il primo tentativo di interpellarla non è andato a buon fine, perché effettuato in una fascia oraria pomeridiana: essendo uno strumento molto utilizzato negli Stati Uniti, in tale fascia oraria (prima mattina negli USA) gli utenti che cercavano di interagire con l’IA avevano pressoché occupato a pieno regime le sue risorse. L’accesso nelle prime ore del mattino italiane (piena notte negli USA) ha consentito il ricorso all’IA.
In secondo luogo, nel nostro esperimento l’interazione è stata a sua volta mediata da un’altra IA: infatti le domande e le risposte sono state redatte in inglese e tradotte in italiano attraverso Google Translate e il senso – sia della domanda che della risposta – è rimasto coerente.
Inoltre l’articolo riportato è il terzo tentativo di interazione (a questo link è possibile verificare le 3 versioni): nella prima versione era stato richiesto un testo di 1.800 parole, quindi l’articolo è stato brutalmente troncato al raggiungimento del limite indicato. La seconda versione prevedeva circa 3.000 parole: uno spazio espositivo che ha concesso un respiro maggiore al testo, in cui sono state inserite le singole opinioni (debitamente analizzate e riassunte dall’IA) dei membri del collegio del Garante, che però è risultato un po’ prolisso. La terza versione, in cui si è richiesto un testo di circa 2.000 parole, è risultata più asciutta ed espositiva, divisa in periodi in cui si esponeva un concetto e se ne analizzavano i rischi correlati.
È interessante riscontrare come la stessa IA apprenda da noi e da sé stessa: ogni volta che modificavamo leggermente la nostra richiesta, l’IA variava anche l’approccio al tema e rendeva il testo più scorrevole, come se acquisisse confidenza con l’argomento. D’altra parte, dietro alla motivazione di lasciare a disposizione gratuitamente una risorsa così innovativa vi è l’obiettivo farla interagire con più soggetti ed evolvere. Come del resto fanno gli algoritmi di riconoscimento facciale con le foto reperite sul web (in questo specifico contesto, è bene ricordare che le fotografie salvate negli spazi gratuiti dei cloud dei grandi competitor sono utilizzati a questi scopi…).
Il colpo di scena finale
Una considerazione particolare è da porsi sulla rielaborazione dei contenuti: nelle tre versioni, l’IA ha elaborato 3 diversi aforismi di Oscar Wilde sull’intelligenza artificiale (!!!), che riportiamo di seguito.
Nel primo tentativo, avevamo chiesto: “L’articolo deve avere un taglio divulgativo e nel primo periodo del testo deve essere presente un aforisma appropriato di Oscar Wilde”. La risposta è stata la parafrasi di un aforisma che, nella versione originale, faceva in realtà riferimento ai libri. La rielaborazione recitava così:
L’intelligenza artificiale è l’ultima forma di intelligenza e non è né morale né immorale. È semplicemente amorale.
Al secondo tentativo avevamo chiesto “L’articolo deve avere un taglio divulgativo e nel primo periodo del testo deve essere presente un vero aforisma di Oscar Wilde che possa essere applicabile all’intelligenza artificiale”. Il testo quindi ha previsto un aforisma realmente scritto dall’artista:
La verità è raramente pura e mai semplice.
Al terzo tentativo, la richiesta è stata la stessa del precedente, ma – è qui il colpo di scena – l’IA ha deciso di concedersi una licenza rielaborativa, sebbene avessimo richiesto un aforisma reale:
L’intelligenza artificiale è il trionfo dell’ingegnosità umana sulla naturale stupidità degli uomini.
È un aforisma meravigliosamente appropriato al tema e decisamente coerente con lo stile di Oscar Wilde. Ma non esistono aforismi simili dell’artista.
Alcune riflessioni
Questo porta a fare alcune riflessioni profonde: anzitutto, l’IA ha deciso autonomamente di “andare oltre” alle nostre istruzioni, rielaborando un nuovo aforisma. Il contesto non è sicuramente rischioso, ma fa riflettere l’autonomia decisionale ed interpretativa dell’IA.
Infine, il risultato è completamente nuovo ma stilisticamente coerente. Il dubbio che le espressioni dei rappresentanti del board del Garante possano essere state parafrasate dall’IA non può essere sicuramente fugato. Questa rielaborazione artistica ci porterà a ragionare su nuove dimensioni del plagio, in cui non vi sarà un’IA che si attribuisce l’opera di un artista, bensì un artista a cui si attribuirà l’opera di una IA.
Per informazioni sull’offerta di SI.net Servizi Informatici per accompagnarti nelle continue sfide legate alla trasformazione digitale, scrivi a comunicazione@sinetinformatica.it o telefona allo 0331.576848.
Per ricevere aggiornamenti sulle tematiche relative all’innovazione nell’ICT iscriviti alla nostra newsletter.
Segui SI.net anche su Twitter, Facebook, YouTube, LinkedIn, Telegram, Instagram