Rischi e limiti dell’intelligenza artificiale nella ricerca scientifica: perché è importante conoscerli

Oggi i ricercatori di tutto il mondo, guardano alle intelligenze artificiali (IA) come strumenti sorprendenti al quale affidarsi per velocizzare e risolvere una vasta quantità di quesiti e problematiche che vanno dalla robotica alle neuroscienze. Tuttavia, strumenti di IA generativa tendono a inventare o addirittura “allucinare”, per non parlare del fatto che i processi di apprendimento automatico spesso non sono trasparenti.

In un articolo pubblicato su Nature, due ricercatrici, Lisa Messeri, antropologa dell’Università di Yale, e Molly Crockett, scienziata cognitiva dell’Università di Princeton, ammoniscono sull’uso sempre più massivo e senza controllo di questi sistemi. Le ricercatrici affermano che non bisogna guardare alle IA come strumenti sovrumani e con capacità illimitate. Lo studio, sostiene che questa visione possa costituire un rischio serio in termini di obiettività, con il rischio di perdere la visione d’insieme di un problema scientifico e di aver la percezione di aver compreso un concetto molto meglio di quello che si faccia in realtà.

Le autrici sottolineano come l’IA, anziché migliorare la comprensione scientifica, possa quindi ridurre la diversità delle conoscenze e dei metodi di ricerca, portando alla formazione di quelle che definiscono come: “monocolture scientifiche”. Queste monocolture privilegiano metodi quantitativi e riduttivi, tralasciando approcci alternativi che potrebbero arricchire la comprensione. Questo fenomeno può rendere la scienza meno innovativa e più soggetta a errori. L’adozione crescente degli strumenti di IA nella ricerca rischia, pertanto, di inaugurare una fase in cui si produce di più, ma si comprende di meno.

L’articolo propone quattro “visioni” principali di come l’IA può essere utilizzata nella ricerca. Nella visione Oracle, l’IA viene vista come uno strumento per digerire e riassumere vasti volumi di letteratura scientifica, invece in quella Surrogate, l’IA genera dati sintetici per sostituire esperimenti difficili o costosi, con il rischio di investigare con strumenti inadeguati il quesito scientifico. Nella visione Quant, l’IA aiuta a gestire e analizzare grandi quantità di dati complessi e infine nella quarta visione, Arbiter, valuta la qualità e replicabilità degli studi scientifici in maniera più obiettiva rispetto a un essere umano. Quest’ultima tuttavia, ha il rischio di non essere obiettiva affatto, proprio perché l’apprendimento stesso delle IA è viziato dai dati che assimila ed è noto come questi possano incorporare il pregiudizio.

Le studiose ammoniscono quindi gli scienziati che vogliono impiegare l’IA senza alcun tipo di controllo, sottolineando la necessità di considerare questi rischi adesso, mentre le applicazioni sono ancora nelle prime fasi di sviluppo. Sarà infatti molto più complicato affrontarli una volta che gli strumenti di IA saranno diventati parte integrante del lavoro di ricerca. Le autrici richiedono inoltre una riflessione più profonda su come l’IA venga integrata nei processi scientifici, con una maggiore enfasi sulla diversità cognitiva e demografica all’interno delle comunità scientifiche.

di Valentino Ribecco

 

https://www.nature.com/articles/s41586-024-07146-0

 

Post correlati

Lascia un commento



SICS Srl | Partita IVA: 07639150965

Sede legale: Via Giacomo Peroni, 400 - 00131 Roma
Sede operativa: Via della Stelletta, 23 - 00186 Roma

Popular Science Italia © 2024