• fr
  • en

Quelles obligations éthiques vous impose le recours à l’IA ?

Dès lors que l’on parle d’intelligence artificielle, intervient le sujet de l’éthique. L’éthique de la technologie propre aux robots et aux entités dits « artificiellement intelligents » est d’ailleurs devenue un domaine de réflexion à part entière. Qu’il s’agisse de « roboéthique »  et/ou d' »éthique des machines », les questionnements sont nombreux et appellent à la plus grande vigilance dès lors que l’on s’apprête à faire usage de l’intelligence artificielle.

Aussi, la majorité des observateurs en matière d’IA et d’éthique s’accordent aujourd’hui à rappeler que l’IA ne doit pas remplacer l’homme, mais le servir, et se prononcent généralement en faveur d’une complémentarité avec l’intelligence humaine. Cette dernière aurait la capacité à s’imposer certaines limites aux potentialités qu’offrent la machine et sa puissance.

Cela suppose une structuration juridique adéquate afin d’éviter les dérives que toute forme d’intelligence façonnée par l’homme peut engendrer et de protéger les concepteurs, les utilisateurs, mais aussi celles et ceux qui subissent passivement l’extraction de leurs données personnelles à des fins de traitement par la machine. Cette dernière peut en effet tendre à reproduire des schémas décisionnels humains parmi lesquels figurent des préjugés liés au conditionnement environnemental, géographique, ethnique, religieux et social dans lequel l’homme évolue. Des affaires largement médiatisées au cours des années passées ont illustré le risque d’intelligence artificielle biaisée, avec un impact significatif sur la vie économique et politique des utilisateurs.

Les institutions supranationales et les superviseurs travaillent d’ores et déjà sur le sujet. L’industrie également tente de s’autoréguler et poursuit parfois une approche désignée « ethic by design » consistant à convenablement paramétrer les outils d’IA, dès leur conception, avant leur mise en œuvre en respectant des critères éthiques appropriés.

Le RGPD impose des règles relatives aux données personnelles notamment utilisées par l’IA. Il constitue indéniablement une première pierre à l’édifice. Néanmoins, restent à traiter les sujets d’interprétations des données faites par les algorithmes mis à disposition de l’IA.

En France, le rapport Villani commandé par le gouvernement et remis en mars 2018, a permis de relever les précautions à prendre et pistes à suivre, notamment en ce qui concerne l’aspect éthique des intelligences artificielles. Il préconise notamment la mise en place, dans un cadre institutionnel, d’un Comité consultatif national d’éthique pour les technologies numériques et l’intelligence artificielle. L’instance serait ainsi bâtie sur le modèle du Comité consultatif national d’éthique (CCNE) pour les sciences de la vie et de santé. Une « Commission » ad hoc pourrait alors être saisie par le gouvernement, le président de la République, les établissements d’enseignement ou par elle-même, afin d’examiner des questions d’éthique relatives à l’usage de l’IA.

Insuffisantes au seul niveau national, d’autres mesures devraient également être prises au niveau européen. La Commission européenne a estimé que  les « nouvelles technologies ne devraient pas rimer avec nouvelles valeurs« . Bruxelles appelle ainsi à la rédaction d’ici la fin de l’année de « lignes directrices » en accord notamment avec les libertés et les valeurs de l’Union, ainsi qu’avec les principes européens en matière de transparence et de protection des données. L’objectif est que le développement de l’IA se fasse dans un cadre éthique et juridique approprié. Les travaux du Groupe européen d’éthique des sciences et des nouvelles technologies serviront également à la création de ces mesures non engageantes.

Ainsi, les entreprises pourront compter sur un développement sécurisé de l’IA et devront en conséquence, structurer juridiquement leurs activités y ayant recours.