L’Organisation mondiale de la santé (OMS) a déclaré mardi qu’il était essentiel d’examiner attentivement les risques liés à l’utilisation d’outils d’intelligence artificielle (IA) tels que ChatGPT, Bird et Bart dans le domaine de la santé.
L’OMS est enthousiaste quant à l’utilisation appropriée de la technologie, y compris les outils d’IA développés pour aider les professionnels de la santé, les patients, les chercheurs et les scientifiques, déclarant : « Il est à craindre que les précautions qui sont généralement prises avec toute nouvelle technologie ne soient pas appliquées de manière cohérente. outils modèles (LLM), y compris », indique-t-il.
Les LLM incluent ChatGPT, BIRD, BART et d’autres qui simulent la compréhension, le traitement et la production de la communication humaine.
“Cela inclut le respect complet des normes fondamentales de transparence, d’inclusion, de participation du public, de surveillance par des experts et d’évaluation rigoureuse”, a déclaré l’Organisation mondiale de la santé dans un communiqué.
“Il est impératif que les risques soient soigneusement examinés lors de l’utilisation du LLM pour améliorer l’accès aux informations sur la santé, comme outil d’aide à la décision, ou même pour améliorer la capacité de diagnostic dans les milieux à faibles ressources afin de protéger la santé publique et de réduire les disparités”, a-t-il ajouté.
L’OMS déclare que “l’adoption rapide de systèmes non testés peut entraîner des erreurs de la part des travailleurs de la santé, nuire aux patients, saper la confiance dans l’IA et ainsi saper (ou retarder) les avantages potentiels à long terme et l’utilisation de ces technologies”.
Les préoccupations de l’OMS contre les outils d’IA incluent que les données utilisées pour former des modèles d’IA peuvent être biaisées, générant ainsi des informations trompeuses ou inexactes qui peuvent présenter des risques pour la santé, l’équité et l’inclusion.
Les LLM peuvent également produire des réponses qui peuvent sembler authentiques et raisonnables à l’utilisateur final, et ces réponses peuvent être complètement inexactes ou contenir de graves erreurs, en particulier pour les réponses liées à la santé.
En outre, l’OMS a déclaré que même si l’IA ne peut pas protéger les données sensibles (y compris les données de santé), elle peut utiliser les données à mauvais escient pour créer et diffuser une désinformation hautement crédible sous la forme de contenu texte, audio ou vidéo difficile à distinguer pour le public de données de santé fiables. . Contenu
“L’OMS recommande que ces préoccupations soient traitées et que des preuves claires des avantages soient mesurées avant leur utilisation généralisée dans les soins de santé et la médecine de routine – que ce soit par des individus, des prestataires de soins ou des administrateurs du système de santé et des décideurs”, indique le communiqué.
— IANS
RVT/VD
(Seuls le titre et l’image de ce rapport peuvent avoir été retravaillés par le personnel de Business Standards ; le reste du contenu est généré automatiquement à partir d’un flux syndiqué.)