La guida dell'ISC offre un quadro completo progettato per colmare il divario tra principi di alto livello e politiche pratiche e attuabili. Risponde all’urgente necessità di una comprensione comune sia delle opportunità che dei rischi presentati dalle tecnologie emergenti. Si tratta di un documento essenziale per coloro che lavorano al nesso politico nella nostra era digitale in rapida evoluzione.
Il quadro esplora il potenziale dell’intelligenza artificiale e dei suoi derivati attraverso una lente globale, che comprende il benessere umano e sociale insieme a fattori esterni come l’economia, la politica, l’ambiente e la sicurezza. Alcuni aspetti della lista di controllo potrebbero essere più rilevanti di altri, a seconda del contesto, ma le decisioni migliori sembrano più probabili se si considerano tutti gli ambiti, anche se alcuni possono essere rapidamente identificati come irrilevanti in casi particolari. Questo è il valore intrinseco di un approccio basato su una lista di controllo.
“In un'era caratterizzata da una rapida innovazione tecnologica e da complesse sfide globali, il quadro dell'ISC per l'analisi completa e multidimensionale dei potenziali impatti consente ai leader di prendere decisioni informate e responsabili. Garantisce che, man mano che avanziamo tecnologicamente, lo facciamo con un’attenta considerazione delle implicazioni etiche, sociali ed economiche”.
Peter Gluckman, Presidente ISC
Sebbene principi di alto livello siano stati promulgati dall’UNESCO, dall’OCSE, dalla Commissione Europea e dalle Nazioni Unite, tra gli altri, e continuino varie discussioni su questioni di potenziale governance, regolamentazione, etica e sicurezza, esiste un ampio divario tra tali principi e un governance o quadro normativo. L’ISC affronta questa esigenza attraverso la sua nuova guida per i decisori politici.
Questa guida per i decisori politici non intende vietare un regime normativo, ma piuttosto suggerire un quadro analitico adattivo e in evoluzione che potrebbe sostenere qualsiasi processo di valutazione e regolamentazione che potrebbe essere sviluppato dalle parti interessate, compresi i governi e il sistema multilaterale.
“Il quadro è un passo fondamentale nel dibattito globale sull’intelligenza artificiale in quanto fornisce una base da cui possiamo costruire un consenso sulle implicazioni della tecnologia sia per il presente che per il futuro”.
Hema Sridhar, ex consigliere scientifico capo, Ministero della Difesa, Nuova Zelanda e ora ricercatore senior, Università di Auckland, Nuova Zelanda.
Dall’ottobre 2023 sono state avviate diverse iniziative nazionali e multilaterali significative che hanno ulteriormente preso in considerazione l’etica e la sicurezza dell’IA. Le implicazioni dell’intelligenza artificiale sull’integrità di alcuni dei nostri sistemi critici, tra cui quello finanziario, governativo, legale e educativo, nonché su diversi sistemi di conoscenza (compresa la conoscenza scientifica e indigena), destano crescente preoccupazione. Il quadro riflette ulteriormente questi aspetti.
Il feedback ricevuto fino ad oggi dai membri dell’ISC e dalla comunità politica internazionale si riflette nella versione rivista del quadro analitico, che viene ora pubblicato come guida per i decisori politici.
Una guida per i decisori politici: valutare le tecnologie in rapido sviluppo tra cui l’intelligenza artificiale, i modelli linguistici di grandi dimensioni e oltre
Questo documento di discussione fornisce lo schema di un quadro iniziale per informare le molteplici discussioni globali e nazionali in corso relative all’intelligenza artificiale.
Scarica il framework da utilizzare nella tua organizzazione
Qui forniamo lo strumento Framework come foglio Excel modificabile da utilizzare nella tua organizzazione. Se preferisci un formato open source, contatta [email protected].
Introduzione
Le tecnologie rapidamente emergenti presentano problemi impegnativi per quanto riguarda il loro utilizzo, la governance e la potenziale regolamentazione. La politica in corso e i dibattiti pubblici sull’intelligenza artificiale (AI) e sul suo utilizzo hanno messo a fuoco queste questioni. Principi generali per l’IA sono stati annunciati dall’UNESCO, dall’OCSE, dall’ONU e altri, inclusa la Dichiarazione di Bletchley del Regno Unito, e stanno emergendo tentativi giurisdizionali di regolamentare gli aspetti della tecnologia attraverso, ad esempio, l’AI dell’Unione Europea (UE) Act o il recente ordine esecutivo sull'IA degli Stati Uniti.
Sebbene l’uso dell’intelligenza artificiale sia discusso a lungo in questi e altri forum, al di là delle divisioni geopolitiche e in paesi a tutti i livelli di reddito, rimane un divario ontologico tra lo sviluppo di principi di alto livello e la loro incorporazione nella pratica attraverso la regolamentazione, la politica, la governance o approcci di amministrazione. Il percorso dal principio alla pratica è scarsamente definito, ma data la natura e la cadenza dello sviluppo e dell’applicazione dell’IA, la varietà degli interessi coinvolti e la gamma di possibili applicazioni, qualsiasi approccio non può essere eccessivamente generico o prescrittivo.
Per questi motivi la comunità scientifica non governativa continua a svolgere un ruolo particolare. L’International Science Council (ISC), con i suoi membri pluralistici appartenenti alle scienze sociali e naturali, ha pubblicato nell’ottobre 2023 un documento di discussione che presenta un quadro analitico preliminare che considerava i rischi, i benefici, le minacce e le opportunità associati alla rapida evoluzione della tecnologia digitale. Sebbene sia stato sviluppato per considerare l’intelligenza artificiale, è intrinsecamente indipendente dalla tecnologia e può essere applicato a una serie di tecnologie emergenti e dirompenti, come la biologia sintetica e la quantistica. Quel documento di discussione ha invitato il feedback di accademici e politici. Il travolgente feedback ha reso necessaria la conduzione di tale analisi e si è rivelato un approccio prezioso per affrontare le tecnologie emergenti come l’intelligenza artificiale.
Lo scopo del quadro è quello di fornire uno strumento per informare tutte le parti interessate – compresi i governi, i negoziatori commerciali, i regolatori, la società civile e l’industria – dell’evoluzione di queste tecnologie per aiutarli a inquadrare come potrebbero considerare le implicazioni, positive o negative, di la tecnologia stessa e più specificamente la sua particolare applicazione. Questo quadro analitico è stato sviluppato indipendentemente dagli interessi del governo e dell’industria. È estremamente pluralistico nelle sue prospettive e abbraccia tutti gli aspetti della tecnologia e le sue implicazioni sulla base di ampie consultazioni e feedback.
Questo documento di discussione per i decisori politici non intende vietare un regime normativo, ma piuttosto suggerire un quadro analitico adattivo e in evoluzione che potrebbe sostenere qualsiasi processo di valutazione e regolamentazione che potrebbe essere sviluppato dalle parti interessate, compresi i governi e il sistema multilaterale.
Mentre i decisori a livello globale e nazionale considerano le impostazioni politiche e le leve appropriate per bilanciare i rischi e i benefici di una nuova tecnologia come l’intelligenza artificiale, il quadro analitico è inteso come uno strumento complementare per garantire che l’intera gamma di potenziali implicazioni sia adeguatamente riflessa.
Background: perché un quadro analitico?
Il rapido emergere di tecnologie con la complessità e le implicazioni dell’intelligenza artificiale sta portando a molte affermazioni di grande beneficio. Tuttavia, provoca anche timori di rischi significativi, dal livello individuale a quello geostrategico.1 Gran parte della discussione fino ad oggi è stata considerata in senso binario poiché le opinioni espresse pubblicamente tendono a collocarsi agli estremi dello spettro. Le affermazioni avanzate a favore o contro l’IA sono spesso iperboliche e, data la natura della tecnologia, difficili da valutare.
È necessario un approccio più pragmatico in cui l’iperbole venga sostituita con valutazioni calibrate e più granulari. La tecnologia dell’intelligenza artificiale continuerà a evolversi e la storia dimostra che praticamente ogni tecnologia ha usi sia benefici che dannosi. La domanda quindi è: come possiamo ottenere i risultati benefici di questa tecnologia, riducendo al tempo stesso il rischio di conseguenze dannose, alcune delle quali potrebbero essere di portata esistenziale?
Il futuro è sempre incerto, ma ci sono voci credibili ed esperte sufficienti riguardo all’intelligenza artificiale e all’intelligenza artificiale generativa per incoraggiare un approccio relativamente precauzionale. Inoltre, è necessario un approccio sistemico poiché l’intelligenza artificiale è una classe di tecnologie con ampio utilizzo e applicazione da parte di molteplici tipologie di utenti. Ciò significa che è necessario considerare l’intero contesto quando si considerano le implicazioni di qualsiasi utilizzo dell’IA per gli individui, la vita sociale, la vita civica, la vita sociale e nel contesto globale.
A differenza della maggior parte delle altre tecnologie, per le tecnologie digitali e correlate, il tempo che intercorre tra sviluppo, rilascio e applicazione è estremamente breve, in gran parte guidato dagli interessi delle società o delle agenzie di produzione. Per sua stessa natura – e poiché si basa sulla dorsale digitale – l’IA avrà applicazioni che saranno rapidamente pervasive, come già visto con lo sviluppo di grandi modelli linguistici. Di conseguenza, alcune proprietà possono diventare evidenti solo dopo il rilascio, il che significa che esiste il rischio di conseguenze impreviste, sia malevoli che benevoli.
Importanti dimensioni dei valori sociali, in particolare nelle diverse regioni e culture, influenzeranno il modo in cui qualsiasi utilizzo verrà percepito e accettato. Inoltre, gli interessi geostrategici stanno già dominando la discussione, con interessi sovrani e multilaterali che si intersecano continuamente e quindi alimentano competizione e divisione.
Ad oggi, gran parte della regolamentazione di una tecnologia virtuale è stata in gran parte vista attraverso la lente dei “principi” e della conformità volontaria, sebbene con l’EU AI Act2 e simili stiamo assistendo ad uno spostamento verso regolamenti più applicabili ma piuttosto restrittivi. Stabilire un’efficace governance tecnologica e/o un sistema normativo globale o nazionale rimane una sfida e non esiste una soluzione ovvia. Saranno necessari più livelli di processo decisionale consapevole del rischio lungo tutta la catena, dall’inventore al produttore, all’utente, al governo e al sistema multilaterale.
Sebbene principi di alto livello siano stati promulgati dall’UNESCO, dall’OCSE, dalla Commissione Europea e dalle Nazioni Unite, tra gli altri, e continuino varie discussioni ad alto livello su questioni di potenziale governance, regolamentazione, etica e sicurezza, esiste un ampio divario tra tali principi principi e una governance o un quadro normativo. Questo deve essere affrontato.
Come punto di partenza, l’ISC considera lo sviluppo di una tassonomia di considerazioni a cui qualsiasi sviluppatore, regolatore, consulente politico, consumatore o decisore potrebbe fare riferimento. Date le ampie implicazioni di queste tecnologie, una tale tassonomia deve considerare la totalità delle implicazioni piuttosto che un quadro ristretto. La frammentazione globale sta aumentando a causa dell’influenza degli interessi geostrategici sul processo decisionale e, data l’urgenza di questa tecnologia, è essenziale che voci indipendenti e neutrali sostengano persistentemente un approccio unificato e inclusivo.
1) Tempi dell'Hindustan. 2023. Il G20 deve istituire un panel internazionale sul cambiamento tecnologico.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) La legge europea sull’intelligenza artificiale. 2023. https://artificialintelligenceact.eu
Lo sviluppo di un quadro analitico
L'ISC è la principale organizzazione non governativa globale che integra le scienze naturali e sociali. La sua portata globale e disciplinare significa che è ben posizionata per generare consulenza indipendente e rilevante a livello globale per orientare le complesse scelte future, in particolare perché le voci attuali in quest’arena provengono in gran parte dall’industria o dalle comunità politiche e politiche delle principali potenze tecnologiche.
Dopo un periodo di ampia discussione, che includeva la considerazione di un processo di valutazione non governativo, l’ISC ha concluso che il suo contributo più utile sarebbe stato quello di produrre un quadro analitico adattivo che possa essere utilizzato come base per il discorso e il processo decisionale da parte di tutti. stakeholder, anche durante eventuali processi formali di valutazione che emergano.
Il quadro analitico preliminare, che è stato pubblicato per discussione e feedback nell’ottobre 2023, ha assunto la forma di una lista di controllo generale progettata per essere utilizzata sia da istituzioni governative che non governative. Il quadro ha identificato ed esplorato il potenziale di una tecnologia come l’intelligenza artificiale e i suoi derivati attraverso un’ampia prospettiva che comprende il benessere umano e sociale, nonché fattori esterni come l’economia, la politica, l’ambiente e la sicurezza. Alcuni aspetti della lista di controllo potrebbero essere più rilevanti di altri, a seconda del contesto, ma le decisioni migliori sembrano più probabili se si considerano tutti gli ambiti, anche se alcuni possono essere rapidamente identificati come irrilevanti in casi particolari. Questo è il valore intrinseco di un approccio basato su una lista di controllo.
Il quadro preliminare è stato derivato da lavori e riflessioni precedenti, compreso il rapporto dell'International Network for Governmental Science Advice (INGSA) sul benessere digitale3 e il quadro dell'OCSE per la classificazione dei sistemi di intelligenza artificiale,4 per presentare la totalità delle potenziali opportunità, rischi e impatti dell'intelligenza artificiale. Questi prodotti precedenti avevano intenti più limitati, dato il tempo e il contesto; è necessario un quadro generale che presenti l’intera gamma di questioni sia a breve che a lungo termine.
Dalla sua pubblicazione, il documento di discussione ha ricevuto un sostegno significativo da molti esperti e responsabili politici. Molti hanno specificamente appoggiato la raccomandazione di sviluppare un quadro adattivo che consenta una considerazione deliberata e proattiva dei rischi e delle implicazioni della tecnologia e, nel fare ciò, consideri sempre la totalità delle dimensioni, dall’individuo alla società e ai sistemi.
Un'osservazione chiave fatta attraverso il feedback è stata il riconoscimento che molte delle implicazioni considerate nel quadro sono intrinsecamente sfaccettate e si estendono a più categorie. Ad esempio, la disinformazione potrebbe essere considerata sia dal punto di vista individuale che da quello geostrategico; quindi, le conseguenze sarebbero di ampia portata.
È stata inoltre suggerita la possibilità di includere studi di casi o esempi per testare il quadro. Ciò potrebbe essere utilizzato per sviluppare linee guida per dimostrare come potrebbe essere utilizzato nella pratica in diversi contesti. Tuttavia, questa sarebbe un’impresa significativa e potrebbe limitare il modo in cui i diversi gruppi percepiscono l’uso di questo quadro. È meglio farlo se i politici lavorano con esperti in giurisdizioni o contesti specifici.
Dall’ottobre 2023 sono state avviate numerose iniziative nazionali e multilaterali significative che hanno ulteriormente preso in considerazione l’etica e la sicurezza dell’IA. Le implicazioni dell’intelligenza artificiale sull’integrità di alcuni dei nostri sistemi critici, tra cui quello finanziario, governativo, legale e educativo, nonché su diversi sistemi di conoscenza (compresa la conoscenza scientifica e indigena), destano crescente preoccupazione. Il quadro rivisto riflette ulteriormente questi aspetti.
Il feedback ricevuto fino ad oggi si riflette nella versione rivista del quadro analitico, che viene ora pubblicato come guida per i decisori politici.
Sebbene il quadro sia presentato nel contesto dell’intelligenza artificiale e delle tecnologie correlate, è immediatamente trasferibile alle considerazioni di altre tecnologie rapidamente emergenti come la biologia quantistica e sintetica.
3) Gluckman, P. e Allen, K. 2018. Comprendere il benessere nel contesto delle rapide trasformazioni digitali e associate. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) OCSE. 2022. Quadro OCSE per la classificazione dei sistemi di IA. Documenti sull'economia digitale dell'OCSE, n. 323,#. Parigi, edizioni OCSE.
https://oecd.ai/en/classificatio
Il Framework
La tabella seguente presenta le dimensioni di un presunto quadro analitico. Vengono forniti esempi per illustrare perché ciascun dominio può essere importante; nel contesto, il quadro richiederebbe un’espansione contestualmente rilevante. È inoltre importante distinguere tra le problematiche generiche che emergono durante lo sviluppo della piattaforma e quelle che possono emergere durante applicazioni specifiche. Nessuna singola considerazione qui inclusa dovrebbe essere trattata come una priorità e, come tale, dovrebbero essere tutte esaminate.
I problemi sono sostanzialmente raggruppati nelle seguenti categorie, come indicato di seguito:
La tabella descrive in dettaglio le dimensioni che potrebbero dover essere prese in considerazione quando si valuta una nuova tecnologia.
🔴INGSA. 2018. Comprendere il benessere nel contesto delle rapide trasformazioni digitali e associate.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 Nuovi descrittori (ottenuti attraverso un'ampia consultazione, feedback e revisione della letteratura)
🟡 Quadro OCSE per la classificazione dei sistemi di IA: uno strumento per politiche efficaci in materia di IA.
https://oecd.ai/en/classification
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟡Competenza AI degli utenti | Quanto sono competenti e consapevoli delle proprietà del sistema i probabili utenti che interagiranno con il sistema? Come verranno fornite loro le informazioni e le avvertenze pertinenti per l'utente? |
🟡 Stakeholder interessati | Chi sono i principali stakeholder che saranno colpiti dal sistema (individui, comunità, lavoratori vulnerabili, settoriali, bambini, decisori politici, professionisti, ecc.)? |
🟡 Opzionalità | Agli utenti viene data la possibilità di rinunciare al sistema o viene data loro la possibilità di contestare o correggere l'output? |
🟡Rischi per i diritti umani e i valori democratici | Il sistema ha un impatto fondamentale sui diritti umani, inclusi ma non limitati a privacy, libertà di espressione, equità, non discriminazione, ecc.? |
🟡Potenziali effetti sul benessere delle persone | Le aree di impatto del sistema riguardano il benessere del singolo utente (qualità del lavoro, istruzione, interazioni sociali, salute mentale, identità, ambiente, ecc.)? |
🟡 Potenziale di spostamento del lavoro umano | Esiste la possibilità che il sistema automatizzi compiti o funzioni eseguiti da esseri umani? Se sì, quali sono le conseguenze a valle? |
🟡 Potenziale di manipolazione dell'identità, dei valori o della conoscenza | Il sistema è progettato o potenzialmente in grado di manipolare l'identità dell'utente o fissare valori o diffondere disinformazione? |
🔴 Opportunità di autoespressione e autorealizzazione | Esiste il potenziale per l’artificio e l’insicurezza? Esiste un potenziale per falso o affermazioni di competenza non verificabili? |
🔴 Misure di autostima | C’è pressione per ritrarre il sé idealizzato? L’automazione potrebbe sostituire un senso di realizzazione personale? C'è pressione per competere con il sistema nel posto di lavoro? È più difficile proteggere la reputazione individuale dalla disinformazione? |
🔴Privacy | Esistono responsabilità diffuse per la tutela della privacy e ce ne sono ipotesi fatte su come vengono utilizzati i dati personali? |
🔴Autonomia | Il sistema di intelligenza artificiale potrebbe influenzare l’autonomia umana generando un’eccessiva dipendenza da utenti finali? |
🔴 Sviluppo umano | C'è un impatto sull'acquisizione di competenze chiave per lo sviluppo umano, come ad esempio funzioni esecutive o abilità interpersonali, o cambiamenti nel tempo di attenzione che influenzano apprendimento, sviluppo della personalità, problemi di salute mentale, ecc.? |
🔴 Assistenza sanitaria personale | Esistono pretese di autodiagnosi o soluzioni sanitarie personalizzate? Se è così, sono convalidati secondo gli standard normativi? |
🔴 Salute mentale | Esiste il rischio di aumento di ansia, solitudine o altri problemi di salute mentale, o la tecnologia può migliorare tali impatti? |
🟢 Evoluzione umana | I grandi modelli linguistici e l’intelligenza artificiale generale potrebbero cambiare la situazione corso dell'evoluzione umana? |
🟢 Interazione uomo-macchina | L’utilizzo potrebbe portare nel tempo alla dequalificazione e alla dipendenza degli individui? Sono ci sono impatti sull’interazione umana? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🔴Valori sociali | Il sistema cambia radicalmente la natura della società, consente la normalizzazione di idee precedentemente considerate antisociali o viola i valori sociali della cultura in cui viene applicato? |
🔴Interazioni sociali | C'è un effetto sul contatto umano significativo, comprese le relazioni emotive? |
🔴 Salute della popolazione | Esiste il potenziale per il sistema di promuovere o indebolire le intenzioni di salute della popolazione? |
🔴 Espressione culturale | È probabile o più difficile affrontare un aumento dell’appropriazione o della discriminazione culturale? La dipendenza dal sistema decisionale esclude o emargina i legami settoriali culturalmente rilevanti della società? |
🔴Istruzione pubblica | C’è un effetto sui ruoli degli insegnanti o sugli istituti scolastici? Il sistema enfatizza o riduce il divario digitale e la disuguaglianza tra gli studenti? Il valore intrinseco della conoscenza o della comprensione critica è avanzato o indebolito? |
🟢 Realtà distorte | I metodi utilizzati per discernere ciò che è vero sono ancora applicabili? La percezione della realtà è compromessa? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟡 Settore industriale | In quale settore industriale viene utilizzato il sistema (finanza, agricoltura, sanità, istruzione, difesa, ecc.)? |
🟡 Modello di business | In quale funzione aziendale viene impiegato il sistema e a quale titolo? Dove viene utilizzato il sistema (privato, pubblico, no-profit)? |
🟡 Impatti sulle attività critiche | Un'interruzione del funzionamento o dell'attività del sistema influenzerebbe i servizi essenziali o le infrastrutture critiche? |
🟡Ampiezza dello schieramento | Come viene implementato il sistema (uso ristretto all'interno dell'unità rispetto a uso diffuso a livello nazionale/internazionale)? |
🟡 Maturità tecnica | Quanto è tecnicamente maturo il sistema? |
🟢 Interoperabilità | È probabile che esistano dei silos, a livello nazionale o globale, che inibiscono il libero scambio e incidono sulla cooperazione con i partner? |
🟢 Sovranità tecnologica | Il desiderio di sovranità tecnologica guida i comportamenti, compreso il controllo sull’intera catena di fornitura dell’IA? |
🔴Redistribuzione del reddito e leve fiscali nazionali | I ruoli fondamentali dello Stato sovrano potrebbero essere compromessi (ad esempio, le banche di riserva)? La capacità dello Stato di soddisfare le aspettative e le implicazioni dei cittadini (sociali, economiche, politiche, ecc.) sarà migliorata o ridotta? |
🟢Divario digitale (divario AI) | Le disuguaglianze digitali esistenti si stanno aggravando o se ne creano di nuove? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🔴Governance e servizio pubblico | I meccanismi di governance e il sistema di governance globale potrebbero essere influenzati positivamente o negativamente? |
🔴 Mezzi di informazione | È probabile che il discorso pubblico diventi polarizzato e radicato a livello di popolazione? Ci sarà un effetto sui livelli di fiducia nel Quarto Stato? Gli standard etici e di integrità dei giornalisti convenzionali verranno ulteriormente influenzati? |
🔴 Stato di diritto | Ci sarà un effetto sulla capacità di identificare individui o organizzazioni da ritenere responsabili (ad esempio, che tipo di responsabilità assegnare a un algoritmo per risultati avversi)? Si crea una perdita di sovranità (ambientale, fiscale, politica sociale, etica, ecc.)? |
🔴Politica e coesione sociale | Esiste la possibilità di opinioni politiche più radicate e di minori opportunità di costruzione del consenso? Esiste la possibilità di ulteriormente emarginare i gruppi? Gli stili politici contraddittori sono resi più o meno probabili? |
🟢 Licenza sociale | Ci sono problemi di privacy, problemi di fiducia e preoccupazioni morali che devono essere considerati per l’accettazione dell’uso da parte delle parti interessate? |
🟢 Sapere indigeno | La conoscenza e i dati degli indigeni potrebbero essere danneggiati o oggetto di appropriazione indebita? Esistono misure adeguate per tutelarsi da false dichiarazioni, disinformazione e sfruttamento? |
🟢 Sistema scientifico | L’integrità accademica e della ricerca è compromessa? C’è una perdita di fiducia nella scienza? Esistono possibilità di uso improprio, eccessivo o abuso? Qual è la conseguenza della pratica della scienza? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟢 Sorveglianza di precisione | I sistemi sono addestrati su dati comportamentali e biologici individuali e potrebbero essere utilizzati per sfruttare individui o gruppi? |
🟢 Competizione digitale | Gli attori statali e non statali (ad esempio le grandi aziende tecnologiche) potrebbero sfruttare sistemi e dati per comprendere e controllare le popolazioni e gli ecosistemi di altri paesi o minare il controllo giurisdizionale? |
🟢 Competizione geopolitica | Il sistema potrebbe stimolare la concorrenza tra le nazioni sullo sfruttamento dei dati individuali e di gruppo per interessi economici, medici e di sicurezza? |
🟢 Cambiamento dei poteri globali | Lo status degli stati-nazione come principali attori geopolitici del mondo è in pericolo? Le aziende tecnologiche esercitano il potere una volta riservato agli stati-nazione e sono diventate attori indipendenti e sovrani (ordine mondiale tecnopolare emergente)? |
🟢 Disinformazione | Il sistema faciliterebbe la produzione e la diffusione di disinformazione da parte di attori statali e non statali, con un impatto sulla coesione sociale, sulla fiducia e sulla democrazia? |
🟢 Applicazioni a duplice uso | Esiste la possibilità sia per l’applicazione militare che per l’uso civile? |
🟢 Frammentazione dell'ordine globale | Potrebbero svilupparsi silos o cluster di regolamentazione e conformità che ostacolano la cooperazione, portano a incoerenze nell’applicazione e creano spazio per il conflitto? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟢 Consumo di energia e risorse (impronta di carbonio) | Il sistema e i requisiti aumentano l’assorbimento di energia e il consumo di risorse oltre ai guadagni di efficienza ottenuti attraverso l’applicazione? |
🟢Fonte di energia | Da dove viene l’energia per il sistema (combustibili rinnovabili vs. fossili, ecc.)? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟡 Direzione e ritiro | I dati e gli input vengono raccolti da esseri umani, sensori automatizzati o entrambi? |
🟡 Provenienza dei dati | I dati e gli input degli esperti sono forniti, osservati, sintetici o derivati? Esistono protezioni per la filigrana per confermare la provenienza? |
🟡 Natura dinamica del dato | I dati sono dinamici, statici, dinamici aggiornati di volta in volta o in tempo reale? |
🟡Diritti | I dati sono proprietari, pubblici o personali (relativi a individui identificabili)? |
🟡 Identificabilità e dati personali | Se personali, i dati sono anonimizzati o pseudonimizzati? |
🟡 Struttura dei dati | I dati sono strutturati, semistrutturati, strutturati complessi o non strutturati? |
🟡 Formato dei dati | Il formato dei dati e dei metadati è standardizzato o non standardizzato? |
🟡 Scala dei dati | Qual è la scala del set di dati? |
🟡 Adeguatezza e qualità dei dati | Il set di dati è adatto allo scopo? La dimensione del campione è adeguata? È sufficientemente rappresentativo e completo? Quanto sono rumorosi i dati? È soggetto a errori? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟡 Disponibilità delle informazioni | Sono disponibili informazioni sul modello del sistema? |
🟡 Tipo di modello AI | Il modello è simbolico (regole generate dall’uomo), statistico (utilizza dati) o ibrido? |
🟡 Diritti associati al modello | Il modello è open source o proprietario, gestito autonomamente o da terze parti? |
🟡 Singolo di molteplici modelli | Il sistema è composto da un modello o da più modelli interconnessi? |
🟡 Generativo o discriminativo | Il modello è generativo, discriminativo o entrambi? |
🟡 Costruzione di modelli | Il sistema apprende sulla base di regole scritte dall’uomo, dai dati, attraverso l’apprendimento supervisionato o attraverso l’apprendimento per rinforzo? |
🟡 Evoluzione del modello (deriva dell'AI) | Il modello si evolve e/o acquisisce capacità interagendo con i dati sul campo? |
🟡Apprendimento federato o centrale | Il modello viene addestrato centralmente o su diversi server locali o dispositivi "periferici"? |
🟡 Sviluppo/mantenimento | Il modello è universale, personalizzabile o adattato ai dati dell'attore dell'IA? |
🟡Deterministico o probabilistico | Il modello viene utilizzato in modo deterministico o probabilistico? |
🟡 Trasparenza del modello | Sono disponibili informazioni per gli utenti che consentono loro di comprendere i risultati e i limiti del modello o di utilizzare i vincoli? |
🟢 Limitazione computazionale | Ci sono limitazioni computazionali al sistema? È possibile prevedere salti di capacità o leggi di scala? |
Criteri | Esempi di come ciò possa riflettersi nell’analisi |
🟡 Attività eseguite dal sistema | Quali compiti svolge il sistema (riconoscimento, rilevamento eventi, previsione, ecc.)? |
🟡 Combinare compiti e azioni | Il sistema combina diversi compiti e azioni (sistemi di generazione di contenuti, sistemi autonomi, sistemi di controllo, ecc.)? |
🟡 Livello di autonomia del sistema | Quanto sono autonome le azioni del sistema e quale ruolo svolgono gli esseri umani? |
🟡 Grado di coinvolgimento umano | Esiste un coinvolgimento umano per supervisionare l’attività complessiva del sistema di intelligenza artificiale e la capacità di decidere quando e come utilizzare il sistema di intelligenza artificiale in qualsiasi situazione? |
🟡 Applicazione principale | Il sistema appartiene a un'area di applicazione fondamentale come le tecnologie del linguaggio umano, la visione artificiale, l'automazione e/o l'ottimizzazione o la robotica? |
🟡 Valutazione | Sono disponibili standard o metodi per valutare l’output del sistema? |
Come potrebbe essere utilizzato questo quadro?
Questo framework potrebbe essere utilizzato in molti modi, tra cui:
Una via da seguire
In sintesi, il quadro analitico viene fornito come base di un kit di strumenti che potrebbe essere utilizzato dalle parti interessate per esaminare in modo completo eventuali sviluppi significativi delle piattaforme o dell'utilizzo in modo coerente e sistematico. Le dimensioni presentate in questo quadro hanno rilevanza dalla valutazione tecnologica alle politiche pubbliche, dallo sviluppo umano alla sociologia, fino agli studi sul futuro e sulla tecnologia. Sebbene sviluppato per l’intelligenza artificiale, questo quadro analitico ha un’applicazione molto più ampia a qualsiasi altra tecnologia emergente.
6 Comitato consultivo dell'ONU sull'IA. 2023. Rapporto intermedio: governare l’intelligenza artificiale per l’umanità. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
Ringraziamenti
Molte persone sono state consultate e hanno fornito feedback durante lo sviluppo sia del documento di discussione iniziale che del feedback successivo alla sua pubblicazione. Entrambi i documenti sono stati redatti da Sir Peter Gluckman, presidente dell'ISC, e Hema Sridhar, ex consigliere scientifico capo del Ministero della Difesa, Nuova Zelanda e ora ricercatore senior, Università di Auckland, Nuova Zelanda.
In particolare, l'ISC Lord Martin Rees, già Presidente della Royal Society e Co-fondatore del Center for the Study of Existential Risks, Università di Cambridge; il Professor Shivaji Sondhi, Professore di Fisica, Università di Oxford; il professor K Vijay Raghavan, ex principale consigliere scientifico del governo indiano; Amandeep Singh Gill, inviato del Segretario generale delle Nazioni Unite per la tecnologia; Seán Ó hÉigeartaigh, Direttore esecutivo, Centro per lo studio dei rischi esistenziali, Università di Cambridge; Sir David Spiegelhalter, Professore Winton di Comprensione pubblica del rischio, Università
di Cambridge; Amanda-June Brawner, Consigliere politico senior e Ian Wiggins, Direttore degli affari internazionali, Royal Society, Regno Unito; Dr Jerome Duberry, Direttore generale e Dr Marie-Laure Salles, Direttore, Geneva Graduate Institute; Chor Pharn Lee, Centro per i futuri strategici, Ufficio del Primo Ministro, Singapore; Barend Mons e il dottor Simon Hodson, il Comitato sui dati (CoDATA); Professor Yuko Harayama, ex direttore esecutivo, RIKEN; Professore
Rémi Quirion, Presidente dell'INGSA; Dott.ssa Claire Craig, Università di Oxford ed ex capo del Foresight, Ufficio governativo della scienza; il Prof. Yoshua Bengio, Comitato Consultivo Scientifico del Segretario Generale delle Nazioni Unite e dell'Université de Montréal; e i molti altri che hanno fornito feedback all'ISC sul documento di discussione iniziale.
Preparare gli ecosistemi nazionali di ricerca per l’intelligenza artificiale: strategie e progressi nel 2024
Questo documento di lavoro del think tank dell'ISC, il Center for Science Futures, fornisce informazioni fondamentali e accesso alle risorse provenienti da paesi di tutte le parti del mondo, nelle varie fasi di integrazione dell'IA nei loro ecosistemi di ricerca.