Sebbene l'Intelligenza Artificiale (IA) possa svolgere un ruolo prezioso nella ricerca, il suo utilizzo deve rimanere trasparente, tracciabile e responsabilmente integrato nelle pratiche accademiche. Aiutateci a mappare le esigenze di divulgazione dell'IA nella ricerca e a produrre uno standard di rendicontazione globale.
La trasparenza sull'uso dell'intelligenza artificiale negli articoli di ricerca e in altri prodotti accademici è un aspetto importante dell'integrità della ricerca.
Attualmente, le politiche e le pratiche per come Le modalità per divulgare l'utilizzo dell'IA variano notevolmente a seconda delle discipline, delle regioni e delle culture editoriali. Molti editori hanno iniziato a introdurre i propri requisiti di divulgazione. Questi sviluppi sottolineano la necessità di una comprensione condivisa e globale di come i contributi dell'IA debbano essere divulgati nella ricerca.
Per rispondere a questa esigenza, il Fondazione per la Conferenza Mondiale sull'Integrità della Ricerca (WCRIF), il Consiglio Internazionale della Scienza (ISC), il Comitato per l'etica della pubblicazione (COPE), l' Associazione degli editori scientifici, tecnici e medici (STM) e Global Young Academy (GYA) hanno preso l'iniziativa congiunta di lavorare verso un Standard globale di rendicontazione per la divulgazione dell'intelligenza artificiale nella ricerca.
Questa iniziativa costituisce il focus track dell' Conferenza mondiale sull'integrità della ricerca a Vancouver, dal 3 al 6 maggio 2026. Questo percorso mira a sviluppare uno standard di rendicontazione ampiamente supportato che possa essere utilizzato in tutte le discipline di ricerca, culture di pubblicazione e contesti organizzativi.
Simile agli strumenti di reporting consolidati, come Tassonomia dei ruoli dei collaboratori (CRediT), un tale standard contribuirebbe ad allineare le aspettative nell'intero ecosistema della ricerca, a rendere le pratiche di divulgazione più coerenti e comparabili e a facilitarne l'implementazione da parte di editori, istituzioni e ricercatori.
Armonizzando la divulgazione dell'intelligenza artificiale, speriamo di promuovere la trasparenza, ridurre l'incertezza tra gli autori e, in definitiva, rafforzare l'integrità della ricerca.
Per garantire che lo sviluppo di questo standard di rendicontazione rifletta un'ampia gamma di prospettive, l'ISC, il WCRIF, il COPE, l'STM e il GYA invitano i loro membri e la più ampia comunità di ricerca a contribuire attraverso tre cicli di consultazione:
Questo approccio partecipativo riunisce le prospettive di redattori, membri dell'accademia, dirigenti di istituti di ricerca, finanziatori, biblioteche, organismi etici, editori ed esperti in materia di integrità della ricerca.
Questa iniziativa è stata proposta da Kari D. Weaver (Responsabile del programma, IA e apprendimento automatico e bibliotecaria per l'apprendimento, l'insegnamento e la progettazione didattica, Consiglio delle biblioteche universitarie dell'Ontario) e Bert Seghers (Presidente di ENRIO, Rete europea degli uffici per l'integrità della ricerca), ed è supportato dallo staff di ENRIO.
Per mettersi in contatto, Bert Seghers a [email protected] o Felix Dijkstal a [email protected].