Pour relever ces défis, l’« AI Act » européen introduit une série de nouvelles exigences visant à garantir la sécurité des personnes et des biens, et à encourager l’innovation autour des techniques de tests pour mieux gérer les biais et autres risques liés au développement de l’IA.

Ce texte législatif prévoit également une documentation technique enrichie afin de permettre l’évaluation de la conformité sur plusieurs aspects tels que la robustesse, la transparence et le suivi de la performance des systèmes IA développés, y compris après leur mise en service. Des tendances similaires émergent à l’échelle mondiale, avec des adaptations spécifiques aux industries pharmaceutique et des sciences de la vie aux niveaux national et régional.

Nous avons pris les devants dans cette transition en anticipant ces aspects réglementaires et en travaillant en étroite collaboration avec nos clients pour développer une plateforme conforme à la future loi européenne sur l’IA. En intégrant une approche spécifiquement adaptée au secteur réglementé des sciences de la vie, nous nous assurons que ses solutions respectent non seulement les exigences générales de l’IA, mais aussi les standards rigoureux et les meilleures pratiques propres à cette industrie.

Le premier point de vue de la série en deux parties explore le leadership nécessaire pour intégrer, maîtriser et se conformer à une IA de confiance dans le domaine des sciences de la vie. Le second aborde les recommandations et les bonnes pratiques pour le déploiement de l’IA de confiance dans ce domaine. 

Téléchargez les points de vue Leading trustworthy AI in life sciences – Partie 1 et Partie 2