
Le mois dernier, Google a annoncé le 'co-scientifique IA', une IA que la société a déclaré avoir conçue pour aider les scientifiques à créer des hypothèses et des plans de recherche. Google l'a présenté comme un moyen de découvrir de nouvelles connaissances, mais les experts pensent que cela, ainsi que des outils similaires, sont loin de tenir les promesses de relations publiques.
'Cet outil préliminaire, bien que intéressant, ne semble pas susceptible d'être sérieusement utilisé', a déclaré Sarah Beery, chercheuse en vision par ordinateur au MIT, à TechCrunch. 'Je ne suis pas sûre que la communauté scientifique ait besoin de ce type de système de génération d'hypothèses.'
Google est le dernier géant de la technologie à avancer que l'IA accélérera considérablement un jour la recherche scientifique, en particulier dans des domaines riches en littérature comme la biomédecine. Dans un essai plus tôt cette année, le PDG d'OpenAI Sam Altman a déclaré que des outils IA 'superintelligents' pourraient 'accélérer de manière massive la découverte scientifique et l'innovation.' De même, le PDG d'Anthropic, Dario Amodei, a prédit avec audace que l'IA pourrait aider à formuler des remèdes pour la plupart des cancers.
Mais de nombreux chercheurs ne considèrent pas l'IA d'aujourd'hui comme particulièrement utile pour guider le processus scientifique. Selon eux, des applications comme le co-scientifique IA de Google semblent plus être du battage médiatique que tout autre chose, non étayées par des données empiriques.
Par exemple, dans son article de blog décrivant le co-scientifique IA, Google a déclaré que l'outil avait déjà démontré un potentiel dans des domaines tels que la reprogrammation de médicaments pour la leucémie myéloïde aiguë, un type de cancer du sang qui affecte la moelle osseuse. Pourtant, les résultats sont si vagues que 'aucun scientifique légitime ne les prendrait au sérieux', a déclaré Favia Dubyk, un pathologiste affilié au Northwest Medical Center-Tucson en Arizona.
'Cela pourrait être utilisé comme un bon point de départ pour les chercheurs, mais [...] le manque de détails est inquiétant et ne me donne pas confiance', a déclaré Dubyk à TechCrunch. 'Le manque d'informations fournies rend vraiment difficile de comprendre si cela peut vraiment être utile.'
Il n'est pas rare que Google soit critiqué par la communauté scientifique pour avoir annoncé une percée supposée en IA sans fournir de moyen de reproduire les résultats.
En 2020, Google a affirmé qu'un de ses systèmes IA formé pour détecter les tumeurs mammaires obtenait de meilleurs résultats que les radiologues humains. Des chercheurs de Harvard et de Stanford ont publié une réfutation dans la revue Nature, affirmant que le manque de méthodes détaillées et de code dans la recherche de Google 'sous-minait sa valeur scientifique.'
Les scientifiques ont également critiqué Google pour avoir passé sous silence les limitations de ses outils IA destinés à des disciplines scientifiques telles que l'ingénierie des matériaux. En 2023, la société a déclaré qu'environ 40 'nouveaux matériaux' avaient été synthétisés avec l'aide de l'un de ses systèmes IA, appelé GNoME. Pourtant, une analyse externe a révélé qu'aucun des matériaux n'était en réalité nouveau.
'Nous ne comprendrons vraiment les forces et les limites d'outils comme le 'co-scientifique' de Google que s'ils font l'objet d'une évaluation rigoureuse et indépendante dans diverses disciplines scientifiques', a déclaré Ashique KhudaBukhsh, professeur adjoint en génie logiciel au Rochester Institute of Technology, à TechCrunch. 'L'IA fonctionne souvent bien dans des environnements contrôlés mais peut échouer lorsqu'elle est appliquée à grande échelle.'
Processus complexes
Une partie du défi dans le développement d'outils IA pour aider à la découverte scientifique est d'anticiper le nombre incalculable de facteurs perturbateurs. L'IA peut être utile dans les domaines où une exploration étendue est nécessaire, comme le rétrécissement d'une liste de possibilités vastes. Mais il est moins clair si l'IA est capable du type de résolution de problèmes innovants qui conduisent à des avancées scientifiques.
'Nous avons vu tout au long de l'histoire que certaines des avancées scientifiques les plus importantes, comme le développement des vaccins à ARNm, ont été impulsées par l'intuition et la persévérance humaines face au scepticisme', a déclaré KhudaBukhsh. 'L'IA, telle qu'elle est aujourd'hui, pourrait ne pas être bien adaptée pour reproduire cela.'
Lana Sinapayen, une chercheuse en IA aux Laboratoires d'informatique de Sony au Japon, estime que des outils comme le co-scientifique IA de Google se concentrent sur le mauvais type de travail scientifique.
Sinapayen voit une réelle valeur dans l'IA qui pourrait automatiser des tâches techniquement difficiles ou fastidieuses, comme résumer de nouvelles publications académiques ou formater un travail pour qu'il réponde aux exigences d'une demande de subvention. Mais il n'y a pas beaucoup de demande au sein de la communauté scientifique pour un co-scientifique IA qui génère des hypothèses, dit-elle, une tâche à partir de laquelle de nombreux chercheurs tirent une satisfaction intellectuelle.
'Pour de nombreux scientifiques, moi y compris, générer des hypothèses est la partie la plus amusante du travail', a déclaré Sinapayen à TechCrunch. 'Pourquoi voudrais-je externaliser mon plaisir à un ordinateur, pour me retrouver ensuite uniquement avec le travail difficile à faire moi-même ? En général, de nombreux chercheurs en IA générative semblent mal comprendre pourquoi les humains font ce qu'ils font, et nous nous retrouvons avec des propositions de produits qui automatisent précisément la partie dont nous tirons de la joie.'
Beery a noté que souvent l'étape la plus difficile dans le processus scientifique est la conception et la mise en œuvre des études et des analyses pour vérifier ou réfuter une hypothèse, ce qui n'est pas nécessairement à la portée des systèmes IA actuels. L'IA ne peut pas utiliser d'outils physiques pour réaliser des expériences, bien sûr, et elle a souvent de moins bons résultats pour les problèmes pour lesquels des données extrêmement limitées existent.
'La plupart des sciences ne peuvent pas être entièrement réalisées virtuellement - il y a fréquemment une part significative du processus scientifique qui est physique, comme collecter de nouvelles données et réaliser des expériences en laboratoire', a déclaré Beery. 'Une grande limitation des systèmes [comme le co-scientifique IA de Google] par rapport au processus scientifique réel, qui limite certainement son utilisabilité, est le contexte concernant le laboratoire et le chercheur utilisant le système, leurs objectifs de recherche spécifiques, leur travail antérieur, leurs compétences et les ressources auxquelles ils ont accès.'
Risques de l'IA
Les lacunes techniques et les risques de l'IA - tels que sa propension à halluciner - rendent également les scientifiques réticents à l'adopter pour un travail sérieux.
KhudaBukhsh craint que les outils IA ne finissent simplement par générer du bruit dans la littérature scientifique, sans favoriser le progrès.
C'est déjà un problème. Une étude récente a révélé que de la 'pseudo-science' fabriquée par l'IA inonde Google Scholar, le moteur de recherche gratuit de Google pour la littérature universitaire.
'La recherche générée par l'IA, si elle n'est pas soigneusement surveillée, pourrait inonder le domaine scientifique d'études de moindre qualité, voire trompeuses, submergeant le processus de révision par les pairs', a déclaré KhudaBukhsh. 'Un processus de révision par les pairs dépassé est déjà un défi dans des domaines comme l'informatique, où les meilleures conférences ont vu une augmentation exponentielle des soumissions.'
Même des études bien conçues pourraient être entachées par un comportement indésirable de l'IA, a déclaré Sinapayen. Bien qu'elle aime l'idée d'un outil qui pourrait aider à la revue et à la synthèse de la littérature, Sinapayen a déclaré qu'elle ne ferait pas confiance aujourd'hui à l'IA pour exécuter ce travail de manière fiable.
'Ce sont des choses que divers outils existants prétendent faire, mais ce ne sont pas des tâches que je confierais personnellement à l'IA actuelle', a déclaré Sinapayen, ajoutant qu'elle a des problèmes avec la façon dont de nombreux systèmes IA sont formés et la quantité d'énergie qu'ils consomment également. 'Même si tous les problèmes éthiques [...] étaient résolus, l'IA actuelle n'est tout simplement pas assez fiable pour que je base mon travail sur leurs résultats d'une manière ou d'une autre.'