Uno sguardo critico all’impatto dell’Intelligenza Artificiale (AI) sulla scienza da diverse prospettive e attori – dai finanziatori pubblici alle istituzioni private ad alta tecnologia – rivela una preoccupazione condivisa per la mancanza di trasparenza e cooperazione nella creazione di un approccio più incentrato sull’uomo che potrebbe mantenere la promessa della scienza come bene pubblico globale.
«La questione non è più if L’intelligenza artificiale sta cambiando la scienza, ma come”, Mathieu Denis ha aperto la parola quest'anno Summit globale sul digitale con uno scopo con una sessione panel sugli impatti dell’intelligenza artificiale su come viene fatta e organizzata la scienza.
A meno di un anno dal rilascio pubblico iniziale di ChatGPT 4, l’interesse per il tema dell’intelligenza artificiale, così come la sua applicazione nell’intero ciclo di produzione scientifica, è esploso. Yamine Ait-Ameur, capo del dipartimento digitale e matematico dell'Agenzia nazionale francese per la ricerca (ANR), vede questo interesse in quasi tutte le discipline. E sebbene l’Agenzia non utilizzi strumenti di intelligenza artificiale per valutare proposte di ricerca, è ben consapevole di non poter imporre simili restrizioni sull’uso dell’intelligenza artificiale ad altri nel loro lavoro scientifico.
Sebbene l’uso dell’intelligenza artificiale nella scienza sollevi molte domande e talvolta dubbi, c’è anche molto entusiasmo per le sue promesse. Il potenziale c’è, se mettiamo in atto strutture adeguate. Ricardo Batista Leite, CEO di I-DAIR, una società collaborativa sull'intelligenza artificiale per la ricerca sanitaria, racconta le lezioni del passato, quando le tecnologie dirompenti, applicate a sistemi danneggiati, creavano ulteriori rotture. Le tecnologie di intelligenza artificiale possono contribuire al benessere pubblico, se le progettiamo appositamente per farlo fin dall’inizio.
L’attuale ondata di sviluppo dell’IA, tuttavia, è guidata quasi esclusivamente dal settore privato, con risorse che superano di gran lunga qualsiasi investimento pubblico. E diventa impossibile parlare di co-progettazione di un’intelligenza artificiale più responsabile e inclusiva senza colmare il divario tra pubblico e privato nella ricerca e nello sviluppo.
Christina Yan Zhang, CEO del Metaverse Institute, crede fermamente nella cooperazione pubblico-privato nel campo della scienza e della tecnologia. È d’accordo sul fatto che il benessere umano debba essere posto al centro dello sviluppo tecnologico. Nell’attuale sistema scientifico, i ricercatori sono costretti a perseguire parametri come le citazioni di riviste, invece dell’impatto reale.
Non è solo questo, aggiunge Yamine Ait-Ameur. C’è un’altra sfida chiave nell’uso dell’intelligenza artificiale nella scienza. Gli strumenti di intelligenza artificiale possono spesso produrre risultati e risultati migliori di quelli degli esseri umani. AlphaFold, un sistema di apprendimento profondo basato sull’intelligenza artificiale addestrato per prevedere la struttura delle proteine, ad esempio, sta già surclassando i metodi alimentati dall’uomo. Ma non possiamo replicare, verificare e spiegare in modo affidabile i suoi risultati. Finché non saremo in grado di comprendere i processi che avvengono nelle “scatole nere” dell’intelligenza artificiale, l’uso dell’intelligenza artificiale nella scienza solleverà enormi problemi tecnici ed etici.
Il pubblico presente alla sessione del panel ha condiviso la sensazione che i grandi cambiamenti a cui assistiamo oggi nella scienza siano solo l'inizio: “Siamo a metà del XIX secolo, all'inizio della rivoluzione industriale. Stiamo cercando di adattare il sistema feudale o stiamo analizzando il periodo emergente?”
Ricardo Batista Leite è d'accordo. “Guarderemo indietro a questo momento e ci chiederemo se abbiamo fatto la cosa giusta. Abbiamo avuto l’opportunità di invertire la tendenza”, ha concluso.