Gli artigiani invisibili dell’Intelligenza Artificiale

Quando chiediamo a ChatGPT di scrivere una lettera di presentazione, raramente ci domandiamo chi ha insegnato alla macchina a essere così cortese, così “umana” nella sua risposta. Quando interroghiamo l’intelligenza artificiale su temi delicati, il sistema ci risponde con una precisione chirurgica, evitando contenuti tossici o inappropriate. Ma dietro questa apparente magia algoritmica si cela una verità scomoda: migliaia di lavoratori africani, pagati meno di due dollari l’ora, hanno passato ore a catalogare testi con descrizioni accurate di abusi sessuali, omicidi e torture per “ripulire” l’intelligenza artificiale.

Mentre l’Italia si prepara a implementare la sua strategia nazionale per l’IA 2024-2026, e le software house sviluppano soluzioni sempre più sofisticate, emerge una domanda fondamentale: siamo davvero consapevoli del costo umano della nostra rivoluzione digitale?

Il Lato Oscuro del Machine Learning

La creazione di un’intelligenza artificiale “etica” non nasce spontaneamente dagli algoritmi. Per evitare che ChatGPT produca contenuti violenti, sessisti e razzisti come il suo predecessore GPT-3, OpenAI si è rivolta a Sama, un’azienda di San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare dati. Il processo si chiama “fine-tuning” e rappresenta il momento cruciale in cui l’intelligenza artificiale impara cosa è accettabile e cosa non lo è.

Ma il prezzo di questa “educazione” è altissimo. Secondo un’inchiesta di Time, i lavoratori impiegati da Sama per conto di OpenAI ricevevano stipendi compresi fra 1,32 e 2 dollari l’ora. Non si tratta di semplice data entry: questi annotatori devono esaminare per ore contenuti traumatici, violenti e disturbanti per insegnare all’IA a riconoscerli e filtrarli.

In Kenya è in corso un’importante battaglia legale tra Meta e quasi duecento moderatori di contenuti, con testimonianze di lavoratori che hanno sviluppato sindromi post-traumatiche da stress. La situazione è così grave che alcuni ricercatori definiscono questi lavoratori come “i proletari dell’intelligenza artificiale”.

Un business da miliardi, salari da fame

L’industria dell’annotazione dati si sta espandendo rapidamente nel 2025 e si prevede una crescita sostanziale entro il 2033, alimentata dalla continua necessità di dati di addestramento per i nuovi modelli di IA. Ma mentre OpenAI raggiunge valutazioni di 30 miliardi di dollari, i lavoratori che rendono possibile questo successo vivono in condizioni di estrema precarietà.

Il modello di business è spietato: le aziende assumono annotatori spesso reclutati da paesi a basso reddito e geopoliticamente instabili, dove questo tipo di lavoro, sebbene non fisso, “è almeno qualcosa” per chi non ha niente. Scale AI, valutata 14 miliardi di dollari e partner di OpenAI, opera attraverso la piattaforma Remotasks, dove i compiti possono richiedere solo pochi minuti e essere pagati 11 centesimi di dollaro.

La geografia del lavoro digitale rivela un pattern coloniale: il lavoro ad alto valore aggiunto rimane nella Silicon Valley, mentre quello a basso costo viene esportato in Kenya, Venezuela, Filippine e India. Certi lavoratori venezuelani creano delle piccole fabbriche in casa, dove la mattina lavora il padre, poi è il turno della figlia quando torna da scuola, e la sera la mamma o addirittura la nonna.

Verso un’IA etica: Cosa possono fare le software house Italiane

Di fronte a questo scenario, le aziende tecnologiche italiane si trovano a un bivio. Algorithmo, come molte software house del nostro paese, sviluppa piattaforme web e applicazioni mobile che sempre più spesso integrano componenti di intelligenza artificiale. Ma come possiamo garantire che i nostri sistemi siano etici non solo nel risultato finale, ma anche nel processo di sviluppo?

Trasparenza nella catena di fornitura

La prima azione concreta è mappare l’intera catena di fornitura dell’IA. Quando utilizziamo API di terze parti o modelli pre-addestrati, dovremmo chiedere ai fornitori:

  • Chi ha annotato i dati di addestramento?
  • Quali sono state le condizioni di lavoro?
  • Come è stata garantita la protezione psicologica degli annotatori?

Investire in annotazione locale

Il boom dei Large Language Model come ChatGPT ha ridotto la necessità di alcuni compiti manuali, ma non ha eliminato il contributo umano. Le software house italiane potrebbero creare un modello alternativo, investendo in annotatori locali con salari equi e supporto psicologico adeguato. Questo rappresenterebbe non solo una scelta etica, ma anche un vantaggio competitivo in termini di qualità e controllo dei dati.

Automazione Responsabile

Una delle tendenze più significative è l’ascesa di strumenti di annotazione assistita dall’IA che utilizzano l’apprendimento automatico per automatizzare e accelerare il processo di etichettatura. Questa strada permette di ridurre il carico di lavoro umano mantenendo il controllo qualitativo.

Collaborazioni Etiche

In Kenya, ex lavoratori del settore hanno creato la Kenya Content Moderators Union e co-fondato la ONG Techworker Community Africa per sostenere le migliori pratiche. Le aziende italiane potrebbero collaborare con queste organizzazioni per sviluppare standard etici condivisi.

La Sfida del Futuro

Il Kenya ha presentato la sua strategia nazionale per l’intelligenza artificiale, con l’obiettivo di garantire la difesa degli interessi nazionali attraverso la sovranità dei dati e criteri eticamente appropriati. Questo esempio dimostra che è possibile immaginare un futuro diverso, dove i paesi in via di sviluppo non sono solo serbatoi di manodopera a basso costo, ma partner attivi nello sviluppo tecnologico.

L’intelligenza artificiale rappresenta una delle più grandi opportunità della nostra epoca, ma il suo sviluppo non può continuare a basarsi sullo sfruttamento di lavoratori vulnerabili. Ogni volta che implementiamo un chatbot, un sistema di raccomandazione o un algoritmo di moderazione, dovremmo ricordare che dietro quella “intelligenza” ci sono esseri umani che hanno sacrificato il loro benessere psicologico per rendere la tecnologia sicura per noi.

Come professionisti del settore, abbiamo la responsabilità di guidare questo cambiamento. La vera innovazione non sta solo nel creare sistemi più potenti, ma nel farlo rispettando la dignità di chi li rende possibili. Perché un’intelligenza artificiale costruita sullo sfruttamento umano non potrà mai essere davvero “intelligente” – né tantomeno etica.