Nel solco della narrazione alternativa e poco entusiastica sull’Intelligenza Artificiale che abbiamo condotto all’inizio dell’anno scolastico in riferimento alle ricadute sulla scuola (clicca qui per il nostro articolo), vorremmo rilanciare il contributo sui costi e sui rischi connessi all’uso dell’Intelligenza artificiale generativa, scritto dalla prof.ssa Daniela Tafani per il Bollettino telematico di filosofia politica e rilanciato anche dalla Rivista ROARS.
Proprio come Pinocchio al Paese dei Balocchi, l’umanità si sta illudendo di avere a disposizione un mondo in cui potere, nello stesso momento, disimpegnarsi legittimamente e divertirsi sistematicamente, pensando di riuscire a generare per sé e per gli altri una felicità che suona decisamente artificiosa, piccola variazione tematica rispetto all’artificiale.
Dietro il mito della personalizzazione dell’apprendimento; dietro l’idea distorta che la sorveglianza sia una forma di cura; dietro narrazioni tanto consolidate quanto fallaci, come quella del prompt engineering, che determina solo l’illusione del controllo; dietro il facile esonero, che uomini e donne credono venga loro offerto gratuitamente attraverso l’uso dell’IA, si celano invero gli enormi interessi economici di «grandi aziende tecnologiche transnazionali che, in virtù di un modello di business fondato sulla sorveglianza, detengono l’accesso al mercato necessario per l’intercettazione di grandi flussi di dati e metadati individuali e le infrastrutture computazionali per la raccolta e l’elaborazione di tali dati» scrive Tafani.
Nell’analisi della ricercatrice è chiaro che «La diffusione generalizzata di tali sistemi produce perciò – secondo quanto previsto dalla stessa openAI nel documento tecnico di GPT4 – l’inquinamento degli ecosistemi dell’informazione e della scienza e un aumento esponenziale dei reati di phishing e scam». Per non parlare della controversa applicazione del diritto d’autore (clicca qui per approfondire) o degli enormi costi ambientali, come il fisico Bartolomeo Ventura ha argomentato su Agorasofia.com (clicca qui).
Nulla di rassicurante, dunque, anzi si tratteggia un quadro abbastanza allarmante, se pensiamo che l’uso dell’IA sia ormai stato sdoganato all’interno del sistema istruzione con una nonchalance, da parte degli addetti ai lavori, che suona come una ritirata dagli imperativi etici che dovrebbero orientare ogni azione educativa.
Ora, per fare un esempio dell’impegno etico e del livello di coinvolgimento politico che gli esseri umani dovrebbero mettere in campo quando si tratta di ragionare su questioni che riguardano la produzione di senso, di significato e di valori per la costruzione di società vivibili, sia negli ambienti scolastici sia nell’ambito della comunicazione, e che, invece, l’Intelligenza Artificiale non riesce ad attivare, invitando al disimpegno morale dietro lo svolgimento del “mero compito”, abbiamo provato a chiedere all’estensione AI del programma fornito dal nostro blog di cercare un’immagine adeguata per un titolo che abbiamo volutamente reso peggiorativo: L’intelligenza Artificiale proprio non ci piace, anzi, ci fa schifo!
Vi pare che l’Intelligenza Artificiale abbia compreso il nostro stato d’animo?
Se l’umanità si fosse basata solo sul calcolo razionale e non sugli stati d’animo, allora non avremmo avuto nessuna rivoluzione! Ma non è che sia proprio questo l’obiettivo di chi le finanzia?
Per leggere l’articolo di D. Tafani clicca qui: Omini di Burro. Scuole e università al Paese dei Balocchi dell’IA generativa
Buona lettura!
AP e ML (22/10/24)
