Les outils d’intelligence artificielle (IA) sont extrêmement puissants, mais ils ne sont pas infaillibles.
De là à être dangereux ? Possiblement, répond la Pre Laura Rubbia-Brandt, médecin-cheffe du Département diagnostique et du Service de pathologie clinique : «C’est comme un scalpel, un instrument indispensable en chirurgie, mais qui est aussi potentiellement dangereux, c’est pourquoi il faut l’utiliser à bon escient et dans un cadre réglementé.»
De l’avis du Pr Douglas Teodoro du Département de radiologie et informatique médicale à l’Université de Genève (UNIGE), pour prévenir les dérives, les besoins des utilisatrices et utilisateurs doivent être soigneusement analysés, sans quoi ces outils risquent d’avoir un impact négatif dans la pratique médicale. Aussi, pour des questions de fiabilité, il est important de connaître le champ d’application ainsi que les données avec lesquelles les machines ont été entraînées. Car c’est là que peuvent s’introduire des biais. Dans le cas de prédictions d’efficacité d’un traitement par exemple, il convient de se demander si le logiciel a inclus dans son panel de données des profils d’individus variés en termes d’âge, de sexe, d’origine, de grossesse, etc.
«Il est important de garantir l’intégrité des données. Si elles n’ont pas été rentrées dans le logiciel de façon exacte, les résultats risquent d’être faussés», ajoute Maître Célian Hirsch de l’UNIGE. Mais encore, les personnes qui recourent à l’IA doivent savoir à quelles questions l’algorithme répond exactement et auxquelles il ne répond pas. « Nous devons faire preuve de vigilance et ne pas créer des algorithmes censés être intelligents qui font des choses bêtes », commente le Pr Teodoro. «Sans compter que les ordinateurs n’ont pas de morale», rappelle le Pr Christian Lovis, médecin-chef du Service des sciences de l’information médicale.
Pas de confiance aveugle
De plus, si les algorithmes nous livrent des résultats sur la base de calculs et de statistiques, ils nous disent rarement comment ils y sont arrivés. C’est ce qui est appelé le biais «d’explicabilité». «Ceci peut poser problème lorsque nous devons, en tant que médecin, prendre une décision sensible», note le Pr Geissbuhler, médecin-chef du Service de cybersanté et télémédecine. Et ce d’autant plus que la responsabilité d’une décision médicale revient en principe au ou à la médecin qui la prend, «à moins de pouvoir prouver que les données utilisées par l’entreprise de développement du logiciel sont inexactes, ce qui semble difficile», commente Maître Hirsch. C’est pourquoi «nous ne devons pas nous y fier de manière irraisonnée», insiste le Pr Lovis. En effet, poursuit le Pr Geissbuhler, «il est indispensable de considérer la réponse de l’IA comme un avis ou un conseil et non comme une information décisive».
Enfin, pour garantir la sécurité des malades, les algorithmes qui prédisent un traitement ou un diagnostic doivent, en tant que dispositifs médicaux, faire l’objet d’essais cliniques sérieux et être validés par les instances de réglementation. Les données personnelles doivent quant à elles être anonymisées.
Dossier Intelligence artificielle
- IA : un outil puissant au service de la santé
- Radiologie : un domaine phare pour l’IA
- Optimiser la recherche clinique grâce à l’IA
- Intelligence artificielle : limiter les risques
Texte:
- Elodie Lavigne
Photos:
- Adobe Stock
Crédits photos portraits:
Nicolas Righetti | Lundi 13
DR