Go to content Go to navigation Go to search

L'industrializzazione del linguaggio · 2023-04-17 by mmzz

La discussione attorno ai LLM (Large Language Models) e alla cosiddetta “intelligenza artificiale” mi pare tenda ad impigliarsi attorno a due aspetti critici attorno alle parole “responsabilità“e “umano”.

1) L’umanizzazione della macchina.

Spesso leggiamo che “la tecnologia X fa Y a Z” e non che “tizio usa X per fare Y a Z.”: questo linguaggio ostacola la attribuzione di responsabilità.
Se vengo investito da un’auto, non dirò che la tecnologia automobilistica è responsabile del mio investimento, ma che sono stato investito perché tizio non ha rispettato il codice della strada, o che il costruttore ha progettato male la tal parte, o che la segnaletica era carente, ecc…

L’oggetto di per se non è responsabile di nulla, ma i vari attori che costruiscono l’ecosistema del suo impiego lo sono: chi progetta/programma/vende/impiega, ciascuno per la parte di azione compiuta attraverso la macchina che gli compete.

Se al contrario attribuiamo alla tecnologia una data azione, deresponsabilizziamo questi attori, schivando la vera difficoltà che risiede nell’identificare e ripartire i profili di responsabilità tra loro.

Il rendere intenzionalmente antropomorfa (‘autonoma’, ‘intelligente’), o sfruttare l’inclinazione umana di considerare come tale qualsiasi tecnologia equivale a un esplicito tentativo di fuga dalla propria responsabilità, inducendo a credere che esista un soggetto che di fatto non esiste come tale.

L’industria del software ha sempre sfuggito tale responsabilità (vedasi i vari standard disclaimers e l’argomento del “tech exceptionalism”).

All’aumentare degli effetti sul mondo, chi progetta e vende queste tecnologie non può esimersi dal considerarsi in una ragionevole misura responsabile dei possibili impieghi di ciò che costruisce.

Il che naturalmente porta anche a riflettere su cosa i vari attori di una determinata industria fanno collettivamente al resto della società. Mentre nel caso della mobilità ciò mi pare avvenga, nel caso delle ICT fatichiamo ancora a rendercene conto, nonostante le molteplici evidenze.

2) La reificazione (macchinizzazione) dell’umano

Parliamo di dati, di dati personali, di trattamento, ma perdiamo di vista che stiamo parlando, in primo luogo ed in ultima istanza, sempre di persone.

Dimentichiamo anche che gli attori che automatizzano la produzione linguistica sono gli stessi che compongono l’ecosistema dell’industria della sorveglianza, che usano l’esperienza umana come materia prima (S.Zuboff) per mettere sul mercato prodotti e servizi atti a condizionare altro comportamento umano, dalla pubblicità ai voti, secondo dun modello brutalmente skinneriano.

E’ logico aspettarsi che questi attori impieghino l’automazione della lingua per monetizzare analogamente gli stessi dati e la lingua stessa, vendendo ai propri clienti i comportamenti basati su determinati usi della lingua, basandoli sulla conoscenza estratta da testi messi a disposizione da altri utenti inconsapevoli di questi nuovi impieghi, che non hanno mai espressamente consentito all’uso della propria competenza linguistica a tali scopi.

Questo business model basato sulla appropriazione dei contenuti messi online dagli utenti è contrastato solo dalle leggi sulla privacy (e il copyright?) che in buona parte si applicano a contesti in cui dati personali vengono condivisi per scopi specifici che non includono il training dei modelli statistici. Ancora una volta il far west? Le colonie?

Ciò che va contestato è il diritto di appropriazione auto-attribuitosi da tali imprese all’uso dell’esperienza umana come se si trattasse di dati meteorologici o contabili, e l’uso del comportamento umano come mezzo.

Le imprese di cui parliamo (come molte altre, del resto) vendono comportamenti umani, sfruttano i lavoratori, inibiscono la sindacalizzazione, non pagano le tasse, fuggono dalle loro responsabilità, mirano al monopolio, si inchinano a regimi autoritari e manipolano o mentono a quelli democratici, e tutto questo non incidentalmente, ma seguendo una presa di posizione ideologica in molti casi coordinata. Queste accuse sono coerenti con i comportamenti di analoghe imprese in altri ambiti industriali (fossile, tabacco).

Se si trattasse di persone, non esiteremmo a considerarle sociopatiche.

Dare loro il potere di influenzare la lingua, che è ciò che regge letteralmente la società, non può che dar loro un altra enorme fetta di potere. E’ ciò che vogliamo?

Esempio grossolano: se un nostro governo richiedesse (anche pagando) la produzione algoritmica di testi che favorisca il “voi” al posto del “lei” non violerebbe né la legge né la grammatica, né il GDPR, ma i testi generati automaticamente cambierebbero progressivamente anche la lingua parlata.

A queste imprese, e a chi lavora per loro direttamente o indirettamente, va detto: “Fermiamoci! Riflettiamo!”.

Dato che l’ambiente in cui operano è la lingua, e che la lingua è quanto di più umano ci sia, qual è la valutazione di impatto di un GPT*? Qual è il principio di precauzionalità usato?

Queste due criticità diventano due fallacie del ragionamento, per cui da una parte demonizziamo le tecnologie invece di concentrarci sulla responsabilità delle imprese, dall’altra ammettiamo che quelli umani siano dati come gli altri e che l’esperienza umana e la società possa continuare ad essere una miniera da sfruttare industrialmente. Così accettiamo l’eccezionalismo IT e ammettiamo l’uso dell’umano come mezzo.

L’industrializzazione del linguaggio, come ogni altro processo industriale non regolato, non può che degradare l’ambiente che tocca.

Il modello culturale su cui si basa l’attuale ‘progresso’ è quello sul quale si sono basati molti dei progressi industriali precedenti: senza negarne i benefici, dobbiamo riconoscere che hanno comportato la svalutazione e lo sfruttamento della persona umana e la fuga dalle responsabilità.

Per una volta, cerchiamo di evitare il percorso passato e non aspettiamo i danni ambientali e umani per regolare. Fermiamoci e facciamolo subito.
Non invochiamo la scienza e il progresso per giustificare avidità di denaro e potere, come è avvenuto con imperialismo, colonialismo, schiavismo.
Il progresso vero è assumersi la responsabilità, non ‘move fast and break things’.

La vasta polemica attorno agli LLM, che segue quella di Cambridge Analytica, quella sul riconoscimento facciale e molte altre riuscirà finalmente a rendere chi produce software responsabile in qualche misura di ciò che fa e rispettare le persone?

Forse no, dovremo attendere un altro passo, mi azzardo a prevedere che forse sarà l’applicazione degli LLM alla produzione di oggetti, di cui anticipo un episodio:

GPT9000: Cosa posso fare per te?
Io: Vorrei costruire una automobile a tre posti e sei ruote di cui due anteriori e quattro motrici, con motore elettrico e pannelli solari.
GPT9000: Certo ci sono molti progetti di automobili sui quali ho elaborato quello che cerchi. Avrai bisogno di una stampante 3d e di alcuni componenti che puoi trovare online. Troverai l’elenco dei negozi in cui comprare il tutto in area download, assieme al progetto e ai brevetti consultati: non dimenticarti di pagare le fees e di far omologare il veicolo nel tuo paese.
IO: Wow, grazie. Avrei anche bisogno di una macchina per far scodinzolare i cani.
GPT9000: Ho trovato solo un progetto in un vecchio libro francese ma dovrebbe andare bene. In compenso non ci sono fees per i brevetti da pagare.
IO: Grazie. Avrei anche bisogno di una macchina del tempo.
GPT9000: Sono spiacente, non ho progetti affidabili per una macchina del tempo, ma se ti interessa posso fornirti i progetti per una macchina per la criogenia, che alcuni considerano un efficace mezzo per viaggiare nel futuro. Devo metterti però in guardia: non è stata testata estesamente per questo scopo e non si può tornare al presente.
IO: Fantastico! La voglio. Servono permessi?
GPT9000: Dalle informazioni in mio possesso nel tuo paese la criogenesi non è regolata espressamente.
IO: Benone! Cosa può andare storto?
GPT9000: Mi spiace, solo solo un agente software, non posso fare previsioni su cosa può accadere se usi una macchina per la criogenia non testata per viaggiare nel futuro. Buona fortuna!