IL FASCINO INDISCRETO DELL’INTELLIGENZA ARTIFICIALE da IL MANIFESTO e CORSERA
Saperi. In assenza di un grande collettore politico prevalgono le specializzazioni, manca il dialogo tra i saperi e la frammentazione blocca le potenzialità del pensiero critico. Una parziale cartografia degli studiosi italiani di varie discipline
Cultura, Saperi, Università, Dialogo
7064
post-template-default,single,single-post,postid-7064,single-format-standard,stockholm-core-2.3.2,select-child-theme-ver-1.0.0,select-theme-ver-9.0,ajax_fade,page_not_loaded,,qode_menu_,wpb-js-composer js-comp-ver-6.7.0,vc_responsive

IL FASCINO INDISCRETO DELL’INTELLIGENZA ARTIFICIALE da IL MANIFESTO e CORSERA

Il fascino indiscreto dell’intelligenza artificiale

Ri-mediamo. La rubrica settimanale a cura di Vincenzo Vita

Vincenzo Vita  15.12.2021

Lo scorso 24 novembre l’Italia ha adottato il Programma strategico per l’intelligenza artificiale 2022-2024. Sulla base delle linee europee il governo, attraverso tre ministeri (Università e Ricerca, Sviluppo economico, Innovazione tecnologica e Transizione digitale) e con l’ausilio del già esistente gruppo di lavoro, ha varato un testo che delinea 5 principi guida, 6 obiettivi, 11 settori prioritari, 3 aree di intervento. Una quarantina di pagine dense e accurate.
I principi cardine sono: l’intelligenza artificiale italiana (IA) è un IA europeo (ci si spieghi meglio, magari); polo globale di ricerca e innovazione; l’IA italiana è antropocentrica, affidabile e sostenibile; le aziende diventeranno leader, la pubblica amministrazione governerà l’IA con l’IA.

Il progetto è alquanto ambizioso, se si fa un confronto con gli altri paesi per ciò che riguarda la percentuale nel Pil della spesa in ricerca, il numero di ricercatori o le competenze digitali. Campioni nazionali (cosiddetti) zero, non per caso.
Nella storia è successo di assistere a salti vorticosi di posizioni. Ma, ecco il punto, per immaginare una gara contro arretratezze intrise di vecchia fisiologia dei gruppi dominanti e una burocrazia funzionale al potere politico servirebbe una visione, della quale per ora c’è scarsa traccia.

Intendiamoci. Siamo di fronte ad un testo accurato, non banale come esempi recenti su argomenti contigui.
Il filo conduttore sembra essere l’investimento nell’istruzione (rafforzamento dei dottorati sì, e i restanti livelli visto che a cinque-sei anni già si smanetta e si naviga in rete?). Per rafforzare l’ecosistema italiano, collegando le eccellenze esistenti e le attività territoriali in un unico piano di coordinamento.

Insomma, il dubbio che assale il lettore è che il programma sia pensato per la parte alta e molto alfabetizzata della società, come se l’intelligenza artificiale fosse un surplus per chi ha e sa, e non un capitolo cruciale per il futuro della democrazia, a partire dai suoi modelli cognitivi. Purtroppo, sugli aspetti etici del problema le culture laiche appaiono davvero in affanno, mentre coloro che credono nella trascendenza hanno ben chiaro il tema dei limiti di robot, algoritmi o metadati. Si veda al riguardo un interessante numero speciale della rivista Civiltà cattolica pubblicato proprio un anno fa.

Ci si aspetterebbe un’offerta differenziata di discussione: dalla sequenza delle cifre e degli obiettivi si passi al senso generale di quel mostro chiamato IA. E di mostro si tratta, perché dalla fase delle macchine che copiano il cervello degli umani si è passati alla soglia successiva. Sono gli umani ad essere diretti e sollecitati nei loro desideri più riposti, riconosciuti da software di inaudita forza in grado di plasmare le menti e di dominarle. Fantascienza? No. La realtà, se mai, ha sopravanzato la finzione.

Un capitolo specifico, da solo meritevole di analisi critiche adeguate, è l’ingresso dell’IA nelle redazioni dei giornali o nei processi di produzione culturale come le serie televisive. Ne ha scritto Aldo Fontanarosa nel bel libro Giornalisti robot (2020).
Era lecito, dunque, attendersi almeno una premessa, per inquadrare il testo in un contesto dove si capisce come l’età moderna è proprio conclusa. E dove si vaga in una terra in cui il conflitto sarà via via tra umani e non umani.

Lo scorso 21 aprile la Commissione europea pubblicò una proposta di regolamento sui sistemi di intelligenza artificiale. Un buon materiale, ora alle prese con i difficoltosi itinerari normativi di Bruxelles. L’approccio è condivisibile, definendosi quattro specie di rischi: inaccettabili, alti, limitati o minimi. Per dire, è inaccettabile che si raccolgano dati biometrici per la tutela dell’ordine pubblico o per forme di inquietante sorveglianza di massa.

Non mancano, quindi, spunti autorevoli per orientare la riflessione e ancorare gli obiettivi a criteri valutativi moralmente giusti.
Comunque, è troppo chiedere un dibattito pubblico e partecipato, nazionale e locale, su argomenti che riguardano le vite reali, di tutte e di tutti?

CORSERA

Intelligenza artificiale: dubbi (e rischi) in Europa

  Gustavo Ghidini e Daniele Manca | 13 dicembre 2021

Mentre negli Stati Uniti c’è chi teme che la corsa con la Cina sia già persa, l’Unione, abituata a regolare più che ad agire, rischia di rimanere un passo indietro

Nicolas Chaillan ha 37 anni. E alla fine di settembre ha scritto una lettera presentando le sue dimissioni da primo capo del software del Pentagono americano. Con una preoccupante motivazione: la corsa tra Stati Uniti e Cina sull’intelligenza artificiale è già persa. E nei prossimi 15 o 20 anni l’America non sarà più in grado di contrastare la potenza di Pechino, ha detto Chaillan al Financial Timesnelle scorse settimane. L’urgenza che anche l’Europa si muova in questo campo è abbastanza chiara. Abituata com’è, lo scrivevamo lo scorso 27 ottobre sul Corriere, a regolare più che ad agire, rischia di rimanere un passo indietro. A meno che non faccia di questa sua capacità un punto di forza. È già accaduto con il regolamento sulla Privacy (Gdpr) che in tutto il mondo stanno tentando di replicare. Può accadere anche sulla intelligenza artificiale (AI).

Già l’avere individuato alcuni «rischi inaccettabili» dell’AI, dalle tecniche subliminali a quelli potenzialmente dannosi per gli esseri umani, è un passo di non poco conto. Come avere sottolineato altri due tipi di rischi, quelli accettabili e quelli minimi, aiuta nel muoversi in un mondo dominato solo da big tech e profitti. Proviamo a pensare le insane applicazioni di «giustizia predittiva». Sono quelle che anziché limitarsi ad offrire un ampio quadro informativo di precedenti e opinioni, si spingano a «predire/suggerire» la soluzione giurisdizionale: l’attribuzione di ragioni e torti. Tollerandole, si rafforzerebbe un commercio di «pacchetti» algoritmici per incoraggiare, deresponsabilizzando i giudici, atteggiamenti decisori «passivi» (e pigri), ancorati al passato: «dato» è participio passato. E così dunque, pure, disincentivando interpretazioni evolutive. (Questo pericolo per l’avvenire della giustizia, e questo discrimen, è stato efficacemente messo in luce da un recente scritto di Roberto Bichi, presidente del Tribunale di Milano.) Tanto più che il nostro mondo continua a produrre dati.

Per non parlare delle distinzioni presenti nella bozza (articolo 5) tra attori pubblici e privati. Con i privati che, a differenza delle autorità pubbliche, resterebbero liberi di svolgere attività di «classifiche» (rating) reputazionali, pur nei limiti dei principi di liceità, correttezza e trasparenza di cui al Gdpr. Si potranno quindi ammettere i sistemi di valutazione algoritmica dei lavoratori in base a comportamenti sociali extraaziendali (come quando i sindacalisti comunisti venivano mandati «alle presse»?). Basterà che i lavoratori abbiano prestato un consenso adeguatamente informato (!) circa in particolare le modalità e le finalità del trattamento dei propri dati. Con gli occhi della mente vediamo ognuno di noi assieme a Cipputi intenti alla lettura di clausole e clausolette redatte da esperi legulei.

Vi sono poi una serie di eccezioni a tale divieto che creano molteplici «scappatoie» sfruttabili in questo caso dalle autorità pubbliche. Per esempio, l’uso di sistemi di identificazione biometrica in tempo reale può essere consentito per la «prevenzione di una minaccia specifica, sostanziale e imminente alla vita o all’incolumità fisica delle persone fisiche o di un attacco terroristico». Previsione assai generica, la cui interpretazione lascia un ampio potere discrezionale alle Autorità (manifestazioni di forte dissenso politico classificate come attacchi alla «sicurezza nazionale»? Succede, non solo in Cina). Tanto più che l’autorizzazione giudiziaria generalmente necessaria per consentire l’uso di questi sistemi in tali situazioni eccezionali può essere emessa anche dopo l’uso effettivo.

Come sempre, la presenza di concetti indeterminati ed interpretabili con ampio margine di elasticità implica forti oscillazioni dei limiti di flessibilità applicativa da parte degli Stati membri. Occorrerebbe pertanto che la Ue individuasse una congrua serie di pratiche applicative comuni, così da ridurre il rischio di applicazioni difformi della disciplina all’interno del territorio dell’Unione (e conseguenti aumenti del contenzioso giudiziario). Se si manterranno troppe «scappatoie», non si potrà escludere il rischio che l’uso su larga scala di sistemi di identificazione biometrica in tempo reale possa violare diritti fondamentali degli individui, e aprire la strada a una sorveglianza di massa incompatibile con i principi fondamentali delle società democratiche.

Starà quindi ai singoli Stati decidere se autorizzare queste forme di riconoscimento facciale, in che modo e per quali — precisamente individuati — reati. Al riguardo, non si giustificano facili ottimismi. Specie quando si tratta di sicurezza nazionale, non tutti i Paesi dell’Unione garantiscono lo stesso livello di democrazia e di indipendenza della magistratura. L’azione di leader come Orbán e Morawiecki in Paesi come l’Ungheria e la Polonia dimostrano la facilità con la quale certa nuova politica maneggi materie delicate come quelle dei diritti civili. E comunque, senza avvalorare errati parallelismi, anche in Italia si è talvolta già usato questa tecnologia senza neanche rispettare le norme del Gdpr (in vigore da quasi tre anni), tanto che dal Garante è arrivato lo stop alla versione real time di Sari, un sistema di riconoscimento facciale.

Infine, la proposta contiene solo un breve, generico e piuttosto confuso («tirato via», diremmo) riferimento, alla tutela di proprietà intellettuale — e di segreto industriale — delle applicazioni di AI. Riferimento che dovrebbe essere sostituito anzitutto da una precisa dichiarazione di inammissibilità di tutelare con brevetto o copyright applicazioni pur nuove e originali che comportino rischi assoluti. Si dovrebbe dunque estendere a tutti i diritti di proprietà intellettuale il requisito ostativo della «liceità» (come avviene per i brevetti di invenzione industriale). In ultima analisi dovremmo sempre, quando parliamo di Intelligenza artificiale, chiederci come Kate Crawford autrice di «Né intelligente né artificiale» (Il Mulino), «che cosa viene ottimizzato, per chi e chi è che decide». Come a dire anche l’AI ha bisogno di un’etica.

No Comments

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.