I.A., Stop ou encore ?

    0
    2442

    Dans une récente étude (novembre 2017) menée par Médiamétrie auprès de 1.000 français pour le Think Tank Reconnaissance numérique, (90% des internautes) et 72% d’entre elles voyaient de façon « plutôt positive » son développement.

    Parmi les tâches qui, selon eux, pouvaient dès maintenant être déléguées à des technologies d’IA, arrivaient en tête l’entretien du domicile (77% se sentiraient à l’aise dont 37% « tout à fait ») et la recommandation de produits culturels (72% se sentiraient à l’aise dont 39% « tout à fait »).

    Toutefois, même si 58% des personnes interrogées souhaiteraient que des technologies soient développées pour « approfondir la recherche médicale pour améliorer la santé », à ce jour seules 12% d’entre elles seraient « tout à fait à l’aise » de déléguer un diagnostic médical…

    Des réticences sont encore plus clairement exprimées sur l’impact de l’IA sur le monde du travail. Une grande majorité n’est « plutôt pas d’accord » (48 %) ou « pas du tout d’accord » (11 %) avec l’idée qu’elle va « favoriser l’emploi ».

     

    Lors du 29° Forum Cap’Com organisé au Havre début décembre, Laurence Devillers, Professeur en Intelligence Artificielle à la Sorbonne, listait les peurs actuelles, conscientes ou inconscientes, liées aux machines :

    • Le piratage et la prise de contrôle
    • La surveillance en continu et le recueil des données – vie privée et identité, droit de
    • retrait/annulation de consentement
    • Le contrôle des machines auto-apprenantes
    • L’utilisation des machines autonomes comme armes létales
    • La déshumanisation : isolement, dépendance
    • Le remplacement des hommes par des machines apprenantes dans de nombreux
    • métiers
    • Le clivage dans la société entre ceux qui ont accès à la technologie et ceux qui n’y
    • ont pas accès,
    • Les machines apprenantes plus intelligentes que l’homme, les robots collaboratifs !

    Elle insistait sur l’absolue nécessité de réfléchir à l’éthique et aux dilemmes éthiques liés à cette mutation, que ce soit des règles morales et méthodes pour guider une action dans son contexte de vie quotidienne ou des réflexions éthiques sur les changements de culture et de valeurs engendrés par ces nouvelles technologies de machines autonomes.

    L’Institute of Electrical and Electronics Enginers (IEEE) a publié l’an passé « L’initiative éthique des machines autonomes », articulée autour de 4 leviers :

    • Eduquer les ingénieurs, les chercheurs, les journalistes, les industriels, les politiques, tous à l’éthique, et prévoir l’école de demain/l’apprentissage en continu avec des robots
    • Expliciter les règles éthiques à coder dans le robot et rendre le robot capable de les apprendre en continu
    • Mettre en oeuvre des outils pour vérifier que le robot respecte les règles éthiques,
    • Avoir un ensemble de réglementations juridiques en cas de non respect des règles.

    Pour Laurence Devillers, la piste principale consiste à placer l’humain au centre du dispositif et à toujours réfléchir en terme de complémentarité Homme / Machine et non en terme de substitution.
    Cela implique de rapidement mettre en place :

    • Une charte éthique métier
    • Des outils de mesure des comportements de l’IA : loyale, transparente, explicable, robuste
    • Des Outils de mesure de la relation homme-machine : court et long-terme
    • Une solidarité dans l’apprentissage : appropriation par expérimentation
    • Des mesures des compétences (mérite, rentabilité, engagement, créativité, …)
    • De la formation continue

    Vaste programme… on s’y met dès maintenant (après avoir formé notre robot à faire les cadeaux de Noël… ;-))

     

    LAISSER UN COMMENTAIRE

    Veuillez saisir votre commentaire
    Veuillez entrer votre nom