L’intelligenza artificiale generativa si basa su algoritmi di machine learning che analizzano un gran numero di dati e imparano a riprodurne gli schemi e le caratteristiche e a creare nuovi contenuti originali. L’esempio forse più noto è ChatGPT, un modello di linguaggio che è stato addestrato su un vasto corpus di testi in lingua inglese ed è in grado di generare testi coerenti e convincenti: risposte a domande, descrizioni di prodotti, proposte di slogan, racconti, articoli completi. La qualità delle risposte dipende da quanto è stata precisa e dettagliata la richiesta (il cosiddetto prompt), ma in generale è estremamente facile e veloce produrre testi che avrebbero normalmente richiesto tempo, ulteriori ricerche e un supplemento di creatività.
Immaginate cosa significa questa rivoluzione per copywriter, giornalisti, addetti all’assistenza clienti; una parte di queste persone potrà godere dei vantaggi di un assistente digitale che moltiplica la loro creatività e produttività, ma molti vedranno messo a rischio il proprio lavoro, perché affidare la generazione di contenuti alle macchine diventerà più efficiente ed economico. L’AI generativa cambia radicalmente anche il modo in cui otteniamo risposte alle nostre domande: se cerco qualcosa su Google, ottengo un elenco di link che devo aprire ed esplorare; ma se faccio una domanda a ChatGPT – o a Sidney, l’AI che verrà integrata nelle prossime versioni di Bing – ottengo direttamente una risposta, perché ci ha pensato il sistema a raccogliere i dati e riorganizzarli in modo coerente.
Ma quanto sono affidabili queste risposte? Il dettaglio sulle fonti usate per addestrare i sistemi di AI è segreto industriale, il che rende praticamente impossibile valutare in che misura la selezione in ingresso abbia sofferto di pregiudizi, uniformità e conformismo di chi ha programmato il sistema. Sicuramente gran parte di questi dati proviene dal Nord del mondo, e, nonostante i filtri per cercare di escludere contenuti razzisti e fake news, questo rischia di amplificare stereotipi e bias: “L’ha detto il computer”, come fai a mettere in discussione gli oracoli tecnologici?
E non dimentichiamo quanto lavoro umano sta dietro all’automazione: l’AI usa schiere di persone per tutti i compiti di basso livello che implicano il classificare, etichettare, verificare input e output dei sistemi. Sono lavoratori-ombra, spesso stressati e sfruttati come quelli che moderano i contenuti sui social.
Poi c’è il lavoro di chi ha creato i contenuti stessi: un corpus gigantesco di conoscenza collettiva fatta di studi, racconti, articoli, testi, foto, immagini, che diventano combustibile per le elaborazioni dell’AI. Chi garantisce che non si tratti di materiali protetti da copyright? E se si tratta di contenuti di pubblico dominio, non dovrebbero essere collettivi anche i benefici derivanti dal loro uso?
Non ho risposte certe, ma ritengo essenziale interrogarci su come evolve la tecnologia: continua ad aumentare il divario fra chi sa e chi non sa, fra chi può e chi è tagliato fuori, mentre dovremmo provare a usare le risorse e le idee non per accrescere il potere di pochi, ma per costruire realtà più sostenibili per molti, se non tutti.
Per capire l’Intelligenza Artificiale “Elements of AI” è un corso gratuito che combina teoria ed elementi pratici; creato da MinnaLearn e dall’Università di Helsinki, vuole incoraggiare quante più persone possibile a capire i fondamenti dell’AI e le sue applicazioni. www.elementsofai.it