Iscriviti

In vista dell’AI Safety Summit 2023, l’ISC pubblica un documento di discussione su un quadro per la valutazione dell’IA e il rapido sviluppo delle tecnologie digitali

I ricercatori scientifici e i professionisti nel campo dell'IA sono invitati a rispondere al documento di discussione dell'ISC e al quadro proposto sull'IA.

È stato proposto da un certo numero di accademici ed esperti politici che l’International Science Council – con i suoi membri pluralistici provenienti dalle scienze sociali e naturali – stabilisca un processo per produrre e mantenere un quadro/elenco di controllo commentato dei rischi, dei benefici, delle minacce e delle opportunità associati alle tecnologie digitali in rapida evoluzione, inclusa – ma non limitata a – l’intelligenza artificiale. Lo scopo della lista di controllo sarebbe quello di informare tutte le parti interessate – compresi i governi, i negoziatori commerciali, i regolatori, la società civile e l’industria – dei potenziali scenari futuri e inquadrare il modo in cui potrebbero considerare le opportunità, i benefici, i rischi e altre questioni.


Un documento di discussione dell'ISC

Un quadro per valutare il rapido sviluppo delle tecnologie digitali e correlate: intelligenza artificiale, modelli linguistici di grandi dimensioni e oltre

Questo documento di discussione fornisce lo schema di un quadro iniziale per informare le molteplici discussioni globali e nazionali in corso relative all’intelligenza artificiale.


Partecipa alla discussione

Ti invitiamo a partecipare alla discussione sulle idee presentate in questo documento e sulla sua struttura utilizzando il modulo in fondo alla pagina.


L'ISC è lieto di presentare questo documento di discussione sulla valutazione del rapido sviluppo della tecnologia digitale e correlata. L’intelligenza artificiale, la biologia sintetica e le tecnologie quantistiche sono ottimi esempi di innovazione, informata dalla scienza, che emerge a un ritmo senza precedenti. Può essere difficile anticipare sistematicamente non solo le loro applicazioni, ma anche le loro implicazioni.

La valutazione degli aspetti sociali dell’intelligenza artificiale generativa, come i grandi modelli linguistici, che prevedibilmente rappresentano la maggior parte di questo documento di discussione, costituisce un ponte necessario all’interno del discorso attuale – a volte guidato dal panico, altre volte non abbastanza profondo nel pensiero – e i necessari corsi di azione che possiamo intraprendere. L’ISC è convinto che sia necessario un quadro analitico tra l’accettazione sociale di tali nuove tecnologie e la loro possibile regolamentazione per facilitare le discussioni multilaterali necessarie per prendere decisioni informate e responsabili su come ottimizzare i benefici sociali di questa tecnologia in rapida emergenza.

L'ISC è aperto alle reazioni della nostra comunità attraverso questo documento di discussione al fine di valutare il modo migliore per continuare a far parte e contribuire al dibattito sulla tecnologia.

Salvatore Aricò, amministratore delegato

Hanno contribuito al documento:

Molte persone sono state consultate nello sviluppo di questo documento, che è stato redatto da Sir Peter Gluckman, Presidente, ISC e Hema Sridhar, ex capo scienziato del Ministero della Difesa e ora ricercatore senior presso l’Università di Auckland, Nuova Zelanda. 

In particolare ringraziamo:

  • Lord Martin Rees, ex presidente della Royal Society e co-fondatore del Centro per lo studio dei rischi esistenziali, Università di Cambridge;
  • il Professor Shivaji Sondhi, Professore di Fisica, Università di Oxford;
  • il professor K Vijay Raghavan, ex principale consigliere scientifico del governo indiano;
  • Amandeep Singh Gill, inviato del Segretario generale delle Nazioni Unite per la tecnologia;
  • Dott. Seán Óh Éigeartaigh, Direttore esecutivo, Centro per lo studio dei rischi esistenziali, Università di Cambridge;
  • Amanda-June Brawner, Consigliere politico senior e Ian Wiggins, Direttore degli affari internazionali, Royal Society UK;
  • Dr Jerome Duberry, Dr Marie-Laure Salles, Direttore, Geneva Graduate Institute;
  • Chor Pharn Lee, Centro per i futuri strategici, Ufficio del Primo Ministro, Singapore;
  • Barend Mons e il dottor Simon Hodson, il Comitato sui dati (CoDATA);
  • Prof. Yuko Harayama, Giappone;
  • Professor Rémi Quirion, Presidente dell'INGSA;
  • Dott.ssa Claire Craig, Università di Oxford ed ex capo del Foresight, Ufficio governativo della scienza; E
  • Prof Yoshua Bengio, Comitato consultivo scientifico del Segretario generale delle Nazioni Unite e presso l'Università di Montréal.

Cos’altro sta accadendo nel campo dell’intelligenza artificiale all’ISC?

Il think tank dell'ISC, il Center for Science Futures, pubblicherà un documento di lavoro su "Preparare gli ecosistemi scientifici per l'intelligenza artificiale" all'inizio del 2024. Il documento includerà una revisione della letteratura, una mappa delle problematiche e una serie di brevi casi di studio nazionali. La speranza è che il documento contribuisca a stimolare le discussioni tra politici, leader del settore e ricercatori mentre sviluppano tabelle di marcia verso lo sfruttamento del potenziale dell’intelligenza artificiale per il miglioramento della scienza e della ricerca.

Fiera mondiale

L'intelligenza artificiale per la scienza: approfondimenti dall'Asia-Pacifico 

All'inizio di ottobre, l'ISC Center for Science Futures ha segnato un momento cruciale nella sua più recente iniziativa sull'intelligenza artificiale (AI) per la scienza, poiché 14 stimati delegati ed esperti in rappresentanza di 12 paesi, principalmente dell'Asia-Pacifico, si sono riuniti per un tempestivo incontro a Kuala Lumpur, Malesia con il sostegno dell'Accademia australiana delle scienze. ➡️Rper saperne di più

L’intelligenza artificiale sta cambiando la scienza: come? Chi dovrebbe preoccuparsi?

Uno sguardo critico all’impatto dell’Intelligenza Artificiale (AI) sulla scienza da diverse prospettive e attori – dai finanziatori pubblici alle istituzioni private ad alta tecnologia – rivela una preoccupazione condivisa per la mancanza di trasparenza e cooperazione nella creazione di un approccio più incentrato sull’uomo che potrebbe mantenere la promessa della scienza come bene pubblico globale. ➡️Rper saperne di più


Feedback dell'intelligenza artificiale

Abilita JavaScript nel tuo browser per completare questo modulo.
Nome
Genere
Protezione dei dati: gli intervistati devono essere consapevoli che l'ISC conserverà le informazioni inviate per tutta la durata dell'iniziativa (vedere: https://council.science/privacy-policy)
Ti invitiamo ad iscriverti alla Newsletter ISC.

Immagine: Adamichi su iStock