• L’éthique en intelligence artificielle

     

    L’éthique en intelligence artificielle, un sujet à part entière

    Par Arnaud Devillard le 30.03.2018

      https://www.sciencesetavenir.fr/high-tech/intelligence-artificielle/rapport-villani-l-ethique-en-intelligence-artificielle-un-sujet-a-part-entiere_

    Derrière les discours enthousiastes et les perspectives de développement, les notions de contrôle, d‘éthique, de dérive et de biais algorithmique ont irrigué le sommet sur l’intelligence artificielle du 29 mars 2018, organisé en conclusion du rapport Villani.

     Il  faudrait faire attention à ce que la France ne devienne pas une spécialiste de l'éthique en intelligence artificielle quand les Etats-Unis et la Chine font du business.” C'est en ces termes qu'Antoine Petit, devenu récemment président du CNRS après avoir dirigé l'Inria, a mis les pieds dans le plat après trois heures d'intervention et d'échanges lors du sommet AI For Humanity organisé jeudi 29 mars 2018 au Collège de France pour accompagner la remise du rapport de Cédric Villani sur l'intelligence artificielle. Juste avant de signaler que “AI For Humanity, c'est très bien, très marketing”.

    Si la forme était volontairement provocante, l'intervention a le mérite de souligner que les notions d'éthique, de biais cognitifs, de non-neutralité des machines voire de confiance aveugle dans les algorithmes ont irrigué toute cette matinée, et ce dès le début du sommet, avec le face à face entre Laurence Devillers, du Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi) du CNRS, très active sur le sujet, et Justine Cassel de l'université Carnegie-Mellon aux Etats-Unis.   

    Ces thèmes étaient déjà présents lors du précédent grand raout gouvernemental dédié à l'intelligence artificielle,France IA, l'an dernier (sous le quinquennat de François Hollande). Mais ils ont nettement gagné du terrain dans les discours et les préoccupations des spécialistes. Et l'actualité récente a toutes les chances d'amplifier le phénomène, entre le premier accident mortel causé par une voiture autonome et l'usage plus que trouble des données de Facebook par Cambridge Analytica. Yann LeCun, directeur du laboratoire de recherche en intelligence artificielle du réseau social, n'a d'ailleurs pas pu échapper à une allusion, pas bien méchante, à cette dernière affaire...

    Il est aujourd'hui impossible d'auditer une décision algorithmique de deep learning

    Actuel titulaire de la chaire en sciences des données du Collège de France, le mathématicien Stéphane Mallat s'est employé à expliquer l'un des problèmes bien connus des algorithmes pourtant si efficaces de deep learning : l'impossibilité à expliquer pourquoi ils ont donné tel résultat, donc l'impossibilité à auditer une décision algorithmique. “Il y a là un grand mystère mathématique”qui fait l'objet d'une bonne part de la recherche. Ce   

    Ce "mystère" n'a rien d'anodin ou de périphérique : parvenir à reconstituer le cheminement logique d'un algorithme, trouver les critères sur lesquels il s'est appuyé, représente, à terme, un gage de transparence, de fiabilité et d'une plus grande confiance en des machines perçues encore comme des “boîtes noires”.

     

    Mais c'est bien la mathématicienne américaine Cathy O'Neil qui s'est montrée la plus incisive et la moins angélique. Il faut dire qu'elle a vécu de près la folie algorithmique : cette ancienne d'Harvard travaillait dans le monde de la finance quand la crise financière de 2008 a éclaté. L'expérience, comme elle le revendique presque, lui a fait perdre pas mal d'illusion et réorienter ses réflexions. “Les algorithmes peuvent faire du mal, les algorithme peuvent mentir” a-t-elle résumé avant d'aller plu loin : “Facebook est optimisé pour faire du profit, pas pour dire la vérité”, allusion assez claire à l'exploitation du réseau social lors de la campagne présidentielle américaine qui a vu l'élection de Donald Trump.

    Quid des standards sur les tests impliquant l'IA ?

    Et pour qui aurait encore une vision encore pleine d‘ingénuité concernant l'usage des données et des algorithmes, elle a rappelé cette recherche douteuse récente concernant la reconnaissance des homosexuels d'après photo. Ou celle montrant combien les systèmes de reconnaissance faciale étaient plus performants pour les hommes et les blancs que pour les femmes et les noirs.

      Outre le problème technique, ce dernier cas met en évidence une réalité “gênante”, selon Cathy O'Neil : des algorithmes sont mis en service auprès du grand public alors même qu'ils contiennent des biais parce qu'il n'existe pas de standard concernant les tests. Une bonne partie de la solution serait entre les mains des chercheurs eux-mêmes. “Il faut que les scientifiques arrêtent de se considérer uniquement comme purement techniciens.”Le débat est vieux comme la science et l'intelligence artificielle ne pourra pas y échapper.


    Tags Tags : , , , ,
  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :