Humanisme numérique
Éthique des affects numérique, cas pratiques et questionnements
Analyser les questions éthiques que posent les applications de l’informatique affective.
Ce programme se propose d’analyser, à partir de la multiplicité des champs d’application de l’informatique affective (éducation, commerce, banques, personnes âgées, gouvernance), les questions éthiques que ces applications posent par la divulgation de l’information à des tiers, par leur utilisation sur fond de manipulation, par la prédiction et gestion des comportements. Cette réflexion afin de promouvoir la délibération éthique, dans un acte réflexif, interrogatif et discursif interdisciplinaire.
sous la direction de
Entretien
Questions à Claude Kirchner et P. Frédéric Louzeau
Le numérique reconfigure l’intégralité de nos pratiques, de nos savoirs, de nos capacités. Quelles sont les implications éthiques de ces transformations ? Entretien croisé avec Claude Kirchner et le père Frédéric Louzeau.
Pourquoi définir une éthique du numérique ?
Claude Kirchner : Le numérique n’est pas un assemblage technique et matériel, neutre et sans effet, il reconfigure l’intégralité de nos pratiques, de nos savoirs, de nos sociétés ou de nos institutions. Peut-on se limiter uniquement aux questions de surveillance, de responsabilité, d’algorithmique ou d’anonymat lorsqu’on essaie de penser une « éthique du numérique » ? Qu’en est-il des nouveaux savoirs produits par le numérique et des actions inédites qu’il favorise ? Dans quelle mesure les capacités offertes par le numérique – calculs à large échelle, corpus de données, apprentissage machine, modèles de raisonnement – modifient-elles nos capacités d’investigation et par conséquent les bases mêmes de nos réflexions éthiques ?
Frédéric Louzeau : Pour Aristote, l’éthique est la réflexion sur l’action humaine en vue du bien agir dans la cité. Chez les Romains, elle renvoie à « l’humanité », c’est-à-dire l’amitié mutuelle entre les hommes, la bienveillance et la sociabilité. Pour la Bible, l’éthique désigne d’abord la vie selon les commandements divins, puis la vie dans l’Esprit, qui est amour dans le rapport à Dieu, à autrui et à soi.
C. K. : Ce qui est essentiel, c’est de donner à chacun la capacité de réfléchir aux conflits entre hiérarchies de valeurs. Un exemple typique de dilemme éthique concerne la conception des algorithmes de contrôle des véhicules autonomes. En effet, les choix que doit faire le concepteur d’un tel système amènent à expliciter les valeurs et à réfléchir sur leur hiérarchie.
Le numérique suppose-t-il une nouvelle définition des valeurs et des responsabilités ?
F. L. : Si l’éthique est une forme d’enquête sur l’humain, il en ressort qu’elle aussi doit être affectée par le numérique puisque celui-ci modifie l’idée que l’homme se fait de lui-même.
L’entrée dans une « terre inconnue » nécessite une nouvelle cartographie des domaines d’humanité et des voies sans issue, comme Robinson entame, non sans hésitation, une exploration progressive et méthodique de l’île, lui permettant d’inventorier ses ressources et d’en dresser une carte, puis de la cultiver.
C. K. : La nouveauté des sciences, technologies et usages du numérique modifie fortement nos façons de penser l’éthique ; l’informatique nous permet maintenant de commencer à modéliser la notion d’intelligence, au cœur même de la notion d’humanité.
Mais, comme Gilles Dowek l’a présenté lors de notre journée, le numérique nécessite également une éthique de tous les jours pour permettre aux professionnels comme à tous les usagers de comprendre les implications de leurs actions. Enfin, c’est l’éthique elle-même qui devient un sujet influencé par le numérique : peut-on modéliser par exemple les notions de valeurs, de dilemmes ou de conflits, de réflexions éthiques ?
Pourquoi la théologie peut-elle nous aider à penser ce rapport entre éthique et numérique ?
F. L. : Au moment où le droit maritime faisait son apparition, certains avaient tracé une ligne imaginaire dans la mer, au-delà de laquelle tout était supposé permis puisqu’il n’y avait personne. Dans le numérique, nous ne sommes jamais seuls. Chaque « acte numérique » est public. On voit ici à quel point la responsabilité humaine est modifiée puisqu’elle est intensifiée et étendue à toute une série d’actes jusque-là privés.
L’intériorisation d’une telle caractéristique est un défi. Elle peut être éclairée par l’expérience biblique pour laquelle tout acte, et même toute pensée, se déroule toujours « en présence de ». Comme le dit un psaume très connu : « Seigneur, tu m’as scruté et tu connais, tu connais mon coucher et mon lever ; de loin, tu discernes mes projets ; tu surveilles ma route et mon gîte, et tous mes chemins te sont familiers » (Psaumes 139, 1-3).
Ne serait-il pas nécessaire d’étendre les compétences du CCNE aux technologies et aux innovations numériques ?
C. K. : Les questions d’éthique posées par le numérique nécessitent une réflexion collégiale approfondie, à la fois réactive aux évolutions extrêmement rapides et de long terme. Un comité consultatif d’éthique dédié au numérique aiderait l’État à légiférer, mais permettrait aussi à chacun d’investir pleinement cette nouvelle culture.
*CCNE : La France a été le premier pays à avoir créé, en 1983, un Comité consultatif national d'éthique pour les sciences de la vie et de la santé (CCNE). Sa mission est de soulever les enjeux éthiques des avancées de la connaissance scientifique dans le domaine du vivant et de susciter réflexion et débat au sein de la société.
Chercheurs associés
Avec le soutien de
L’INTELLIGENCE PEUT-ELLE DEVENIR ARTIFICIELLE ?
Ce qui dicte le progrès, c’est l’intelligence. Intelligence informatique, algorithmique, artificielle…, elles occupent une place prépondérante, et promise à une envergure indescriptible. A terme s’imposeront-elles devant l’intelligence humaine, celle de l’émotion, de la fragilité, de l’amour ? L’intelligence de l’âme est-elle en danger ?
Etienne Klein
Comment expliquer l’hégémonie de l’approche "computationnelle" de l’intelligence ? Peut-on amalgamer – ne serait-ce qu’à travers les mots - pensée humaine et calcul informatique ? Le développement de l’intelligence artificielle questionne la nature et le sens que l’on a pu attribuer à l’intelligence. Que peut la machine ? Que peut l’homme ? Que pourrait l’homme que la machine ne pourrait pas et inversement ? L’intelligence est-elle cognitive, corporelle, existentielle, sociale, mathématique ou algorithmique ? Serait-elle à démystifier ?
A l’heure où nous déléguons toujours plus aux algorithmes, les Mardis des Bernardins ont chargé une anthropologue, Evelyne Heyer, un professeur à Polytechnique, Charles Ollion et une théologienne, Gemma Serrano, d’éclairer pour nous la notion d’intelligence.
Le débat était animé par Didier Pourquery, directeur de la rédaction de The Conversation France.
[Vidéos] Ils nous ont dit :
"Et si l'on définissait l'intelligence par le prisme du goût ?" Gemma Serrano, Directeur du département humanisme numérique du Collège des Bernardins et Professeur de Théologie à la Faculté Notre-Dame
"Intelligence artificelle et intelligence sociale" Evelyne Heyer, Professeur au Muséum National d’histoire Naturelle en anthropologie génétique
"L'intelligence artificelle peut-elle apprendre en autonomie ?" Charles Ollion, Directeur de la recherche à Heuritech et enseignant à Polytechnique
Pour aller plus loin :
- Catherine Malabou, Métamorphoses de l'intelligence, que faire de leur cerveau bleu ?, Puf, 2017
- Charles Ollion, "Il ne faut pas avoir peur de l'intelligence artificielle en soi", L'Express, 2017
- L'intelligence peut-elle devenir artificielle ?, La Conversation scientifique par Etienne Klein- conversation avec Yann Le Cun, directeur du laboratoire d'intelligence artificielle de Facebook
- Peut-on faire confiance à l'intelligence artificielle ?, par Charline Zeitoun, CNRS Le journal, 25/01/2018
Avec
Avec le soutien de
En partenariat avec
COMMENT VIVRE AVEC LES ROBOTS ÉTRANGEMENT HUMAINS ?
Dans le cadre du département Humanisme numérique du Collège des Bernardins, une soirée qui invite à débattre de la place des robots dans nos vies.
Ecouter le débat
Les robots sont de plus en plus sophistiqués et proches du comportement humain. Ils peuvent imiter des émotions et les reconnaître. Mais sommes-nous prêts à cohabiter et co-évoluer avec eux ?
Il est urgent de poser les questions concernant le statut de ces artefacts dans nos sociétés, réfléchir aux règles éthiques sur l’attachement et l’intimité avec eux, penser l’interaction et l’éducation relationnelle et affective, réguler l’apprentissage de la machine etc...
Débat animé par Eric Scherer, co-directeur du département Humanisme numérique, directeur de l’Innovation, de la Prospective et du MédiaLab de France Télévisions.
[Vidéo] Elle nous a dit
"Vivre avec des robots étrangement humains soulève des questions éthiques » " - Cynthia Fleury, enseignant-chercheur en philosophie politique et psychanalyste, professeur à l’American University of Paris
Avec
VERS UNE ÉTHIQUE DES CHATBOTS ET DES ROBOTS AFFECTIFS
Dans le cadre de la recherche sur le thème de Humanisme numérique du Collège des Bernardins, une soirée pour débattre des nouveaux problèmes éthiques que posent les agents et les robots conversationnels imitant les capacités affectives.
Les agents et les robots conversationnels se rapprochent de plus en plus du comportement des humains notamment dans les interactions entre la parole et les affects. Cette évolution entraîne le risque que les utilisateurs leur prêtent des capacités humaines dont ils sont dépourvus comme la conscience ou les émotions. Ceci est particulièrement vrai pour des utilisateurs méconnaissant ces objets ou fragiles comme des enfants ou des personnes âgées, pour lesquels le risque de "Nudges*" est important. Dans ces systèmes robotisés, intelligents ou autonomes on peut en effet intégrer des fonctions suggestives cachées ou manipulatrices conçues pour influencer le comportement ou les émotions d'un utilisateur.
Il devient une priorité de notre société de concevoir des chabots et robots avec des valeurs et des normes éthiques.
*Un nudge est une incitation douce ou coup de pouce donné à un individu ou consommateur pour modifier son comportement.
Avec
Avec le soutien de
« PIRATER » L’HUMAIN. DONNÉES, MANIPULATIONS ET ENJEUX ÉTHIQUES
Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour débattre des risques et des enjeux éthiques de la surveillance à la manipulation par les données.
Nos données personnelles sont collectées et utilisées en permanence par les services en ligne, comme Google ou Facebook ou encore exploitées par les publicitaires pour personnaliser les contenus ou les publicités. Cette surveillance par les données, qu’on appelle parfois « surveillance liquide » ou « Dataveillance » est aujourd’hui omniprésente.
Ce que l’on sait moins, c’est que nos données personnelles sont de plus en plus utilisées pour nous influencer, voire nous manipuler. En contrôlant les informations que nous recevons en ligne et en les adaptant à nos comportements, un service comme Facebook peut servir à influencer nos comportements de clients, nos opinions, nos émotions, voire, comme le suggère l’affaire récente « Cambridge Analytica », nos choix politiques.
Avec le développement de l’Intelligence Artificielle, les techniques de détection des émotions et de l’utilisation de la neuroscience en marketing ainsi que les techniques de manipulation vont devenir de plus en plus efficaces, dangereuses et insidieuses. Les fake news seront de plus en plus réalistes et difficilement détectables, et utiliseront des nouveaux formats comme le son ou la vidéo (les deep fakes).
La manipulation de masse en ligne par les données est un danger croissant pour nos libertés et nos démocraties. Il s’agit d’un problème étonnamment sous-estimé aujourd’hui et qui mériterait beaucoup plus d’attention, de transparence et de recherche !
[Vidéo] Il nous a dit
"Comment sont récoltées et utilisées nos données ?" - Claude Castellucia, Directeur de Recherche, Inria, Rhône-Alpes et directeur de l'équipe PRIVATICS (Modèles, architectures et outils pour la protection de la vie privée dans la société de l'information)
Pour aller plus loin
- DECEIVED BY DESIGN, Norwegian Consumer Bureau, juin 2018.
- Manipulation informationnelle et psychologique, C. Castelluccia, 2018.
- Anja Lambrecht, Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads, London Business School.
- Ray Fisman and Michael Luca, Fixing Discrimination in Online Marketplaces, Harvard Business Review, December 2016.
- In Amazon Go, no one thinks I'm stealing, CNET, 26 October 2018.
- Psychological targeting as an effective approach to digital mass persuasion, by S. C. Matz, M. Kosinski, G. Nave, and D. J. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2017.
- Computer-based personality judgments are more accurate than those made by humans, by W. Youyou, M. Kosinski*, D. Stillwell, Proceedings of the National Academy of Sciences (PNAS), 2015.
- Jennifer L. Doleac and Luke C.D. Stein, Visible hand: race and online market outcomes, The Economic Journal, 2013.
- Le projet « Bad nudge Bad robot » de l'institut DATAIA.
- Roger Clarkes, Information technology and dataveillance, Communications of the ACM, May 1988.
Avec
Avec le soutien de
ROBOTS THÉRAPEUTIQUES POUR LES PERSONNES ÂGÉES
Quelle relation, quel soin, quelle éthique ?
Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour débattre de la place des robots thérapeutiques dans l’accompagnement des personnes âgées.
Les robots logiciels et physiques existants dans le cadre de l’accompagnement du vieillissement, deviennent peu à peu un membre de plus dans les équipes multidisciplinaires au service du bien-être et du bien-vieillir des personnes âgées.
Ce débat se centre sur la présentation de leurs capacités en termes d’empathie et tente de répondre aux questions suivantes : Que signifie le soin artificiel ? Comment régulariser la marchandisation de l’affect ? En quoi ces interactions avec les robots peuvent-elles être un outil pour favoriser l’accompagnement du vieillissement ? Comment créer de nouvelles formes de solidarité ?
[Vidéos] Elle/Il nous ont dit :
"Retour d’expériences : apports, limites et questions éthiques" - Anne-Sophie Rigaud Monnet, Chef de service, gérontologie, Hôpital Broca à Paris
"Un contact avec un robot sans jugement " - Didier Armaingaud, Directeur Médical, Ethique et Qualité Groupe, Korian, docteur en médecine et titulaire d'une Capacité en Gérontologie
Avec
Avec le soutien de
CRITIQUE DE LA GOUVERNANCE AFFECTIVE
Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour comprendre la gouvernance algorithmique des affects pour mieux répondre aux enjeux éthiques contemporains.
L’analyse des données numériques fournit des moyens puissants pour infléchir le comportement des utilisateurs. Par le fichage des vulnérabilités, on peut assister à un hacking des affects qui intensifie, grâce à la médiation numérique, les capacités de manipulation déjà présentes dans certaines relations humaines toxiques. Il devient donc essentiel de comprendre la gouvernance algorithmique des affects afin de développer une théorie et des pratiques critiques capables de répondre aux enjeux éthiques contemporains.
Un détour par les archives de nos histoires peut être souhaitable. Depuis la création par les Grecs de méthodes philosophiques du soin de l’âme, il existe un champ multiforme et hétérogène qui étudie la capacité critique inhérente aux affects. La direction des âmes, la théorie pratique du discernement d’Ignace de Loyola présentent des règles de déontologie qui régissent le rapport entre le directeur et le dirigé afin de permettre un processus intellectuel et psychique de contrôle et d'interprétation de ses propres affects.
Étudier à nouveaux frais ces pratiques en fonction des problèmes posés par le contemporain pourrait permettre à chacun de nous d'apprendre à discerner le monde du numérique à travers nos propres affects.
[Vidéos] Ils nous a dit :
"Les algorithmes nous rendent-ils plus libres ?" - Gilles Dowek, Professeur d'Informatique à l'École polytechnique et chercheur à l'Institut National de Recherche en Informatique et en Automatique (INRIA)
« Algorithmes et distorsion des affects" - P. Roger Tardy, théologien
Avec
Avec le soutien de
AFFECTS NUMÉRIQUES ET ÉDUCATION
Dans le cadre de la recherche sur Humanisme numérique du Collège des Bernardins, une soirée pour débattre des moyens numériques, l’intelligence artificielle et les applications aux technologies de l’éducation, permettant de modéliser la curiosité chez l’enfant.
Les motivations intrinsèques sont une dimension centrale de l’apprentissage humain. Les enfants par exemple explorent spontanément leur corps et les interactions avec leur environnement, non pas parce qu’on leur impose, mais parce qu’ils ressentent du plaisir à le faire : c’est ce qu’on peut appeler la « curiosité ».
A la croisée de l’intelligence artificielle, des neurosciences et la psychologie, comment des modèles informatiques ont-ils récemment permis de comprendre un peu mieux le fonctionnement de ces systèmes de motivation et d’apprentissage ? Comment peuvent-elles permettre de bâtir des logiciels éducatifs qui visent à favoriser la motivation des apprenants en même temps que l’efficacité de leurs apprentissages ?
[Vidéos] Ils nous ont dit :
" Des outils numériques pour stimuler la curiosité des enfants ? Pierre-Yves Oudeyer " - Pierre-Yves Oudeyer, Directeur de recherche à l'INRIA et responsable de l’équipe Flowers à l’Inria Bordeaux Sud-Ouest
" Décrochage scolaire, curiosité et intelligence artificielle - Thierry de Vulpillières " - Thierry de Vulpillières, Directeur général et cofondateur EvidenceB - Kidscode
Avec
Avec le soutien de
SOMMES-NOUS PRISONNIERS DE NOS ZONES DE CONFORT ?
La conférence interrogera ce paradoxe : les techniques qui configurent la rupture avec les usages qui nous sont les plus familiers sont en même temps celles qui cherchent à intensifier notre habitude au confort.
Pour cette conférence, l’entreprise mécène Accor Hotels présentera un cas pratique et sera questionnée par un invité.
« Sors de ta zone de confort ! » — on a tous déjà croisé cette phrase quelque part. Les méthodes qui nous incitent à cette forme moderne de dépaysement sont innombrables et montrent bien l’existence d’un marché façonné par une demande paradoxale. En effet, si l’on peut convenir que le confort est un état agréable, pourquoi faudrait-il se forcer d’en sortir ?
Le modèle anthropologique qui caractérise l’idée de « confort zone » peut être défini en fonction de l’image d’un cercle. À l’intérieur de l’aire, on trouvera le confort, à l’extérieur ses antonymes : le stress, la peur, la panique et l’angoisse. Entre les deux on trouverait alors une espèce de frontière dans la forme d’une interface, plus ou moins étanche, que l’on définit parfois en zone de challenge.
Cette représentation de notre rapport au monde un peu simpliste paraît fortement influencée par une opposition particulièrement problématique : d’un côté on trouve l’ouverture aux risques et à l’aventure et de l’autre la fermeture aux nouveautés qui effraient. D’un côté la dépendance à une routine familière, de l’autre l’effort de s’en arracher. L’ensemble des représentations qui structurent le champ de l’innovation numérique semble à plusieurs égards s'inscrire à l’intérieur de ce cadre : la recherche de la disruption est entièrement tournée vers le challenge, le dépassement d’habitudes confortables, elle suscite des peurs, elle assume la destruction d’un environnement.
Pourtant à cette représentation un peu hâtive des nouvelles valeurs numériques s’oppose une considération surprenante. La recherche de la disruption semble souhaiter détruire l’état du monde afin de composer un environnement plus confortable pour l’usager. Aux modèles standardisés se substituent, grâce à la récolte de données et au profilage, des modèles plus proches de l’individualité de l’usager afin d’améliorer son expérience, de la rendre plus immédiate, souple, familière. Aux incitations pédagogiques pour une formation qui est aussi une épreuve formelle, inconfortable, pour le changement de soi, la plupart des nouvelles technologiques préfèrent un autre mot d’ordre : be yourself.
La recherche du confort cache-t-elle une volonté de soumission volontaire ou un désir de reconnaissance ?
La critique du confort est-elle un exercice de privilégiés ?
A-t-on déjà été aussi confortable et accablé par le ressentiment ?
Une subjectivité parfaitement confortable peut-elle être tout à fait humaine ?
C’est sur le sujet de « l’expérience personnalisée client » que Pierrick Le Masne de l'entreprise mécène Accor hotels interviendra à cette conférence. Grâce aux solutions numériques et en particulier grâce à sa solution de gestion de la relation client, Accor Hotels recueille des informations précises sur ses clients (avec l’accord explicite, « opt-in »). Les informations permettent aux hôtels de mieux anticiper les besoins de leurs clients, de mieux personnaliser leur prestation en terme d’accueil et de bien-être, pour ensuite mieux adapter les « produits » en fonction des tendances qui s’en dégagent.
Bibliographie
- Melinda Beck, Anxiety Can Bring Out the Best, The Wall Street Journal, Dow Jones & Company, 18 June 2012, Web, 22 January 2017
- Melody Wilding, Please stop telling me to leave my comfort zone, Anxi Magazine No. 3, November 2018
- Bernard Stiegler, Dans la disruption, Editions Les liens qui libèrent, 2016
- R.Yerkes et J. Dodson, The Dancing Mouse, A study in animal behavior, 1907, Journal of comparative neurology & psychology, number 18, pp 459–482
- Alain Damasio, La zone du dehors, Editions La Volte, 2016
- Michel de Montaigne, Essais, impr. De S. Millanges, 1580, en particulier chapitre 31
- Alexandre Kojève, Introduction à la lecture de Hegel, Editions Gallimard 1947, en particulier Note de la seconde édition, p. 436
Avec
Avec le soutien de
LE TRAVAIL ET LES DONNÉES, UNE LIAISON DANGEREUSE ?
Devenues un lieu privilégié d’observation, la gestion des ressources humaines transformées par le numérique, l’intelligence artificielle et la blockchain notamment, soulèvent des questions éthiques en lien avec les intérêts économiques.
Pour cette conférence, l’entreprise mécène Sopra Steria présentera un cas pratique et sera questionnée par un invité.
Tandis que les équipements connectés modifient les usages de l’espace et du temps de travail via le digital workplace, améliorant les performances, le travail semble se transformer et pénètre jusque dans l’espace de l’intimité ou du divertissement appelant à des temporalités de déconnexion.
Ainsi, dans le marché des postes de travail soumis à une forte concurrence, on assiste aujourd’hui à une attention différente de la part de l’employeur, qui, pour attirer et garder les meilleurs talents, pense d’abord à l’expérience collaborateur et à la satisfaction du bien-être de l’employé.
Aujourd’hui, grâce à la capacité fournie par le numérique dans le traitement d'énormes quantités de données, les usages qui demandent une adaptabilité accrue sont optimisés et les tâches à faible valeur ajoutée sont automatisés.
Pourtant si dans la guerre des talents l’employeur devient un fournisseur de services, n’assiste-t-on pas par là même à la systématisation d’un classement de plus en plus explicite entre les individus ce qui pourrait déboucher sur la création d’une société définie par catégories, notations et classements ?
En ce sens on constate qu’un certain nombre de valeurs sont souvent mises en avant comme « la transparence » l’authenticité » ou « la sincérité », dont on peut questionner le bien-fondé ou l’exigence commune à l’ensemble des acteurs impliqués.
Il faudrait ainsi interroger les a priori sociaux et anthropologiques des algorithmes. Comment conçoit-on un outil ? Quelles responsabilités attribuées aux concepteurs d’outils de gestion RH, aux clients et aux salariés ? A titre d’exemple, quelles sont les finalités ou les convictions qui accompagnent la conception d’un chatbot ? Pourquoi sont-ils (sont-elles) si souvent mignons, enfantins, sympathiques ?
Comment comprendre le désir de transparence numérique ?
Une forme de pouvoir qui s’exerce par l’étude méticuleuse des données est-elle plus juste et rationnelle ?
Leader européen dans le domaine de l’édition des logiciels RH, Sopra HR Software (filiale du groupe Sopra Steria), présentera sa nouvelle génération de solutions RH 3.0 adaptée aux défis et pratiques du digital comme la décentralisation des saisies, les validations électroniques, la sécurité des données, l’accessibilité nomade.
Que déléguer à l’intelligence numérique ? Quelle est la complémentarité Homme-Machine idéale ? L’intelligence naturelle sera-t-elle influencée ? C’est l’objet des recherches appliquées aux pratiques RH faites par le Sopra HR Lab (laboratoire d’innovations de Sopra HR Software).
Lexique
Digital workshop
Le lieu de travail numérique englobe tout appareil, logiciel ou plateforme que les membres du personnel utilisent pour exécuter leur travail, comme un complément virtuel de l'espace de du bureau physique.
Éthique
Mais qu’est-ce qu'au juste que l’éthique ? Elle peut être définie comme une forme de réflexion rationnelle en vue de bien agir. Elle fait référence au bien et au mal, au juste et à l’injuste, à ce qu’il faudrait faire ou ne pas faire : elle est donc articulée à la morale, terme parfois décrié mais qui indique (selon une définition possible qui nous semble utile, inspirée entre autres par le philosophe Paul Ricœur) l’ensemble des normes et des principes qui fondent la distinction du bien et du mal. L’éthique est donc réflexion pendant que la morale indique un patrimoine donné de valeurs et principes. Des auteurs comme Alain Etchegoyen ont opposé en partie les deux termes, mais il est préférable de les utiliser dans un cadre unitaire et organique. (Catellani, Domenget, Maas, 2017, p. 5)
Déontologie
La déontologie, parfois confondue avec l’éthique, est « l’ensemble des règles morales qui régissent l'exercice d'une profession ou les rapports sociaux de ses membres ; ces règles peuvent être fixées par écrit dans des codes et chartes (appelés parfois aussi « éthiques ») » (Catellani, Domenget, Maas, 2017, p. 5)
Gestion des ressources humaines
Celle-ci est l'ensemble des pratiques mises en œuvre pour administrer, mobiliser et développer les ressources humaines impliquées dans l'activité d'une organisation.
Expérience collaborateur
Pour attirer, engager et développer les travailleurs, les entreprises peuvent étudier avec attention le parcours que chaque employé entreprend au sein de l’organisation. Ce domaine d’intérêt peut comprendre des éléments aussi différents que les relations personnelles, l'utilisation de la technologie, l'environnement de travail physique ou les temps forts de sa carrière.
Bibliographie
- Andréa Catellani, Jean-Claude Domenget, Elise Maas, Avant-propos. Questionner l'éthique de la communication, Communication & professionnalisation (5), 2017, pp. 1-13
- Dominique Cardon, Antonio Casilli, Qu’est-ce que le digital labor ?, éditions de l’INA, 2015
- Fanny Georges, Identités virtuelles : Les profils utilisateur du web 2.0. Questions théoriques, 2010, pp.208
- Carlo Ginzburg, Mythes, emblèmes, traces : Morphologie et histoire, Flammarion, 1989, en particulier le chapitre Traces. Racines d’un paradigme indiciaire.
Avec
Avec le soutien de
ESPIONS, ANGES GARDIENS OU AMIS ? LES AGENTS CONVERSATIONNELS, UNE OREILLE OÙ TOUT RACONTER
Pour interroger et comprendre les questions éthiques posées par la présence des agents conversationnels dans nos environnements domestiques, les notions d’ange gardien, d’ami ou d’espion sont-elles pertinentes ?
Lors de ce débat, l’entreprise mécène Orange présentera un cas pratique, l'assistant Djingo, et sera questionnée par deux chercheurs.
Une nouvelle voix et à travers elle une nouvelle présence habitent déjà avec certains d’entre nous — chez certains d’entre nous. Quand on l’appelle, elle répond à des noms différents : Alexa, Cortana, Djingo... Elle est passive et à l’écoute, très souvent par une représentation fortement genrée, elle a une voix féminine, mais son nom, en français, est bien masculin : c’est un assistant vocal. Il remplit une fonction innovante. Il sert à effectuer une désintermédiation particulièrement complexe. Pour qu’entre nous et les machines la médiation optique et tactile de l’écran disparaisse, il passe par le sens le plus énigmatique : l’ouïe, et par le geste le plus primordial : la voix.
Cette voix familière peut-elle demeurer neutre, sans affect ? Que signifie sa domesticité ? Et surtout, par conséquent, entre l’homme et la machine qui apprivoise qui ? Quelles sont les finalités de l’assistance conversationnelle ? Comment peut-on lui faire confiance alors qu’on sait qu’elle est là pour nous écouter ? Et quels sont les risques que l’on puisse, pris par le pouvoir de l’affectivité de la parole, prêter à cette voix des capacités humaines — ce que les experts appellent le risque de nudges ?
Face au vertige qu’ouvre cette nouvelle réalité, ne faudrait-il pas prendre une piste qui peut paraître radicalement différente ? On pourrait ainsi ouvrir l’immense archive des pratiques et des doctrines des religions monothéistes pour retrouver dans la figure de l’ange gardien un moyen pour comprendre la croyance qui nous permet d’accepter que cet objet connecté pénètre jusqu’au cœur de notre intimité. Ou bien alors, peut-être, fait-on le pari d’une indifférence vis-à-vis de sa loyauté et de son intelligence, en échange d’un peu plus de simplicité, d’une plus complète intégration entre le monde des humains et celui des machines ?
Débat animé par Barbara Chazelle, journaliste.
Lexique
Un assistant personnel intelligent (aussi appelé assistant personnel virtuel ; en anglais, intelligent personal assistant ou virtual assistant) est un agent logiciel qui peut effectuer des tâches ou des services pour un individu. Parfois, le terme « dialogueur » est utilisé pour faire référence aux assistants virtuels en général ou spécifiquement ceux accessibles par dialogue en ligne (ou dans quelques cas les programmes de dialogue en ligne qui sont pour le divertissement et qui n’ont pas de buts utiles).
Un chatbot aussi nommé dialogueur ou agent conversationnel, est un agent qui dialogue avec un utilisateur. La recherche sur cette interface personne-machine est influencée par la compétition sur le test de Turing (1950) : donner l'illusion qu'un programme pense par un dialogue sensé.
Risque Nudges : Des utilisateurs méconnaissant ces objets ou fragiles comme des enfants ou des personnes âgées, sont particulièrement soumis au risque de "Nudges". Un nudge est une incitation douce ou coup de pouce donné à un individu ou consommateur pour modifier son comportement. Dans ces systèmes robotisés, intelligents ou autonomes on peut en effet intégrer des fonctions suggestives cachées ou manipulatrices conçues pour influencer le comportement ou les émotions d'un utilisateur.
Orange. L’assistant Djingo d'Orange permet de piloter, juste avec la voix, de nombreux services. Il est possible de lui demander de changer de chaîne TV, de passer et recevoir un appel en mains libres, d'écouter votre musique préférée, les infos ou la météo ou de répondre à vos questions.
Pour aller plus loin
- Giorgio Agamben, Emanuele Coccia (éds.), Angeli : Ebraismo, Cristianesimo, Islam, Neri Pozza Editore, 2009
- Derrida, La Voix et le Phénomène, Paris, Presses universitaires de France, 1967
- Laurence Devillers, Demain nos robots devront avoir une dimension morale, Usbek&Rica, 1 mars 2018
- H. Chung, M. Iorga, J. Voas and S. Lee, Alexa, Can I Trust You ?, in Computer, vol. 50, no. 9, pp. 100-104, 2017.
- Matthew B. Hoy, Ariel F. Pomputius, Alexa, Siri, Cortana, and More: An Introduction to Voice Assistants, Medical Reference Services Quarterly Volume 37, 2018 - Issue 1
Comment suivre le direct
Vous pourrez suivre le direct à 18h30 le jour de l’événement sur la homepage du site, sur la page Facebook du Collège des Bernardins ou sur Youtube (il n’est pas nécessaire d’avoir un compte pour suivre le direct).
Vous pourrez poser vos questions le soir du débat en direct sur la page Facebook ou Youtube du Collège des Bernardins.
Avec