L’Homo Cyberneticus

Mis en ligne le 17 Oct 2017

Par son ampleur, sa portĂ©e, sa cĂ©lĂ©ritĂ©, la transformation numĂ©rique bouleverse jusqu’à notre rapport au monde et Ă  notre humanitĂ©. Une « robolution » est en cours, portĂ©e par la convergence des avancĂ©es de la robotique et de la transformation numĂ©rique. Janus Ă  la face engageante de l’homme « augmentĂ© » comme Ă  celle grimaçante de l’homme asservi, voire remplacĂ©, cette « robolution » pose le dĂ©fi clef du rapport de subordination entre l’homme et le robot. Cet article explore avec rigueur et met en perspective les diffĂ©rents aspects interdĂ©pendants de ce dĂ©fi, qu’ils soient technique, juridique, politique, Ă©thique, existentiel mĂȘme. A l’instar de la bioĂ©thique, il plaide pour le dĂ©veloppement d’une cyber-Ă©thique, surplomb de lĂ©gitimitĂ© indispensable aux choix futurs, politiques et juridiques.

——————————————————————————————————————————————-

Les opinions exprimĂ©es dans cet article n’engagent pas le CSFRS.

Les rĂ©fĂ©rences originales de ce texte sont: Marc Watin-Augouard, « L’Homo cyberneticus », Revue de la Gendarmerie Nationale, octobre 2017.

Ce texte, ainsi que d’autres publications, peuvent ĂȘtre visionnĂ©s sur le site du CREOGN

——————————————————————————————————————————————

L’Homo Cyberneticus

 

Introduction

La transformation numĂ©rique, par l’effet cumulatif des nouvelles technologies, bouleverse nos modes de vie, nos rapports Ă  la santĂ©, au travail, Ă  la crĂ©ation, Ă  la formation, Ă  l’information, etc. Elle bouleverse surtout le rapport de l’homme au monde et avec lui-mĂȘme. L’homme « augmenté » sera-t-il « diminué » face Ă  des robots qui pourraient le dominer ? Que restera-t-il de son identitĂ©, de son autonomie, de son intimitĂ© dans un environnement oĂč tout ce qu’il pensera, dira, fera, utilisera sera captĂ©, mesurĂ©, Ă©valuĂ© et, le cas Ă©chĂ©ant, automatiquement sanctionné ? Avec la « robolution », l’homme sera-t-il servi ou asservi ? Du « robot-homme » Ă  « l’homme-robot », existe-t-il une barriĂšre infranchissable ?  Plus que jamais vont se trouver posĂ©es des questions  d’éthique, de dĂ©ontologie. La rĂ©ponse qui leur sera apportĂ©e sera dĂ©terminante pour l’avenir de l’individu et de la sociĂ©tĂ©.

 

L’homme augmentĂ©

L’Homo cyberneticus, pour les plus optimistes, sera un « homme augmenté ». Ainsi, le cyberespace pourrait donner des ailes au courant transhumaniste, dont la doctrine est clairement explicitĂ©e, en 1999, dans la DĂ©claration de l’Association transhumaniste mondiale : « 1/ Les transhumanistes prĂŽnent le droit moral, pour ceux que le dĂ©sirent, de se servir de la technologie pour accroĂźtre leurs capacitĂ©s physiques, mentales ou reproductives et d’ĂȘtre davantage maĂźtres de leur propre vie. Nous souhaitons nous Ă©panouir en transcendant nos limites biologiques actuelles. 2/ Nous prĂŽnons une large libertĂ© de choix quant aux possibilitĂ©s d’amĂ©liorations individuelles. Celles-ci comprennent les techniques afin d’amĂ©liorer la mĂ©moire, la concentration et l’énergie mentale, les thĂ©rapies permettant d’augmenter la durĂ©e de vie ou d’influencer la reproduction, la cryoconservation et beaucoup d’autres techniques de modification et d’augmentation de l’espĂšce humaine ».

Une utopie ? Sans doute pas, si l’on se rĂ©fĂšre au  rapport de Mihail Rocco et de William Bainbridge sur les Technologies convergentes pour l’amĂ©lioration de la performance humaine publiĂ©[1], en 2002, par la National Science Foundation (NSF) de Washington et le DĂ©partement du Commerce amĂ©ricain. Ces technologies, regroupĂ©es sous l’acronyme NBIC, sont  les nanotechnologies, les biotechnologies, l’informatique et les sciences cognitives, dont l’intelligence artificielle et les sciences du cerveau[2]. Pour la NSF, « Une thĂ©orie computationnelle de l’esprit peut nous permettre de dĂ©velopper de nouveaux outils pour guĂ©rir ou maĂźtriser les effets des maladies mentales. Elle sera certainement Ă  mĂȘme de nous fournir une apprĂ©ciation plus profonde de ce que nous sommes et sur la place que nous occupons dans l’univers. Comprendre l’esprit et le cerveau nous permettra de crĂ©er une nouvelle espĂšce de machines intelligentes, capable de produire une richesse Ă©conomique sur une Ă©chelle jusqu’alors inimaginable. L’ingĂ©nierie de l’esprit est donc beaucoup plus que la poursuite d’une curiositĂ© scientifique, beaucoup plus qu’un monumental dĂ©fi technologique. C’est l’occasion d’éradiquer la pauvretĂ© et d’ouvrir un Ăąge d’or pour l’humanitĂ© tout entiĂšre ».

La recherche de l’homme « augmenté » n’est plus de la science-fiction, ni le fruit des Ă©lucubrations d’originaux, mais un axe de rĂ©flexion et d’action pour les services et organismes les plus sĂ©rieux.

Google a bien compris cette opportunitĂ©. L’entreprise de Mountain View, que certains prennent encore pour un simple moteur de recherche, a bien d’autres ambitions qui s’affichent dans l’acquisition ou la crĂ©ation d’entreprises NBIC, le parrainage de la Singularity University, qui forme des spĂ©cialistes NBIC, et la crĂ©ation en 2013 de Calico, start-up qui a pour objectif d’augmenter la durĂ©e de la vie de vingt ans d’ici Ă  2035
 Google, que le visionnaire Ray Kurzweil[3] a rejoint, en 2012, pour travailler sur l’apprentissage automatisĂ© et le traitement du langage, annonce pour 2060 l’avĂšnement d’une intelligence supĂ©rieure Ă  l’intelligence humaine.

Le projet Avatar 2045 du milliardaire russe Itskov Dmitri donne une idĂ©e de l’ambition pharaonique qui guide les transhumanistes  rassemblĂ©s lors du CongrĂšs International « Global Future 2045 », en juin 2013, Ă  New York. Le calendrier est explicite :

Entre 2015 et 2020, rĂ©alisation d’une copie robotique du corps humain contrĂŽlĂ©e Ă  distance par une interaction cerveau-ordinateur ;

Entre 2020 et 2025, crĂ©ation d’un avatar dans lequel un cerveau humain pourra ĂȘtre créé : un cerveau biologique dans un corps artificiel ;

Entre 2030 et 2035, crĂ©ation d’un avatar avec un cerveau artificiel dans lequel pourra ĂȘtre transplantĂ©e la personnalitĂ© d’un ĂȘtre humain Ă  la fin de sa vie ;

Entre 2040 et 2045, crĂ©ation d’un avatar hologramme


Si l’augmentation par l’informatique et la techno-mĂ©decine demeure dans le champ de l’humain, dĂšs lors qu’il s’agit de rĂ©parer des organes dĂ©faillants ou de faciliter la mobilitĂ© (exosquelette), les Ă©volutions escomptĂ©es sont d’un tout autre ordre[4]. Elles auront pour consĂ©quence, si l’on n’y prend garde, un changement radical de l’humanitĂ©. Comme le souligne le philosophe Jean-Michel Besnier, « on est en train de prĂ©parer une humanitĂ© Ă  deux vitesses. La fracture ne sera plus entre le nord et le sud, mais au sein mĂȘme des sociĂ©tĂ©s »[5]. Qui va-t-on augmenter ? A quel coĂ»t ? Selon quel choix ? « Être ou ne pas ĂȘtre augmentĂ©, voilĂ  la question ! ». Tout cela doit ĂȘtre pris au sĂ©rieux.  Le premier salon transhumaniste TransVision 2014 s’est tenu en France du 20 au 22 novembre 2014. Didier Renard, premier diplĂŽmĂ© français de la Singularity University, dĂ©clare : «  BientĂŽt vous pourrez sauvegarder votre mĂ©moire cĂ©rĂ©brale sur un support Ă©lectronique. Ce jour-lĂ , vous aurez envie d’un cloud souverain, un coffre-fort inviolable de votre identitĂ© gĂ©rĂ© par des organisations qui auront le sens de l’État avant d’avoir celui des affaires. Nous n’avons pas les ressources financiĂšres et humaines pour proposer un projet de sociĂ©tĂ© alternatif, cela dĂ©passe clairement notre mission. Mais nous avons l’ambition d’ĂȘtre ce refuge quand cela sera nĂ©cessaire. D’ici lĂ , l’État devra avoir dĂ©fini l’acceptable, l’éthique et le responsable, le tout dans un cadre lĂ©gislatif et juridique imposĂ© Ă  tous, y compris, et bon grĂ© mal grĂ©, aux libertariens et autres transhumanistes qui veulent nous imposer leur propre vision du progrĂšs et de l’humanité »[6].

 

La « robolution » : l’homme servi ou asservi ? Du « robot-homme » Ă  « l’homme-robot »

Avec la transformation numĂ©rique, la robotique connaĂźt une impulsion sans prĂ©cĂ©dent. Mais le robot sera-t-il un auxiliaire de l’homme, l’égal de l’homme ou supĂ©rieur Ă  l’homme ? Tel est l’enjeu majeur de la « robolution » que nous allons vivre.

Les robots en quĂȘte d’autonomie

La robotique est dĂ©jĂ  entrĂ©e en application, notamment dans l’industrie. La France bĂ©nĂ©ficie d’ailleurs d’une capacitĂ© d’innovation reconnue dans le monde qui a motivĂ© la crĂ©ation, en mars 2014, du fonds d’investissement capital-risque « Robolution Capital » pour favoriser le dĂ©veloppement d’une filiĂšre.

Comme le souligne Bruno Bonnell, initiateur du fonds, tous les secteurs vont ĂȘtre touchĂ©s par cette forme d’intelligence apportĂ©e aux machines. Le robot classique a permis de libĂ©rer le travail des tĂąches les plus rĂ©pĂ©titives et d’amĂ©liorer la qualitĂ© du produit fini. Le robot du futur aura une tout autre performance. S’effectuera en effet, le passage de la gĂ©nĂ©ration des robots Automates programmĂ©s industriels (API) Ă  celle des robots dotĂ©s d’une intelligence artificielle, capables d’apprendre eux-mĂȘmes grĂące Ă  un processus d’apprentissage automatique et d’accomplir des tĂąches que ne peuvent autoriser les traitements algorithmiques classiques. C’est ce que l’on appelle le machine learning qui s’appuie notamment sur le traitement de mĂ©gadonnĂ©es. Le deep learning (apprentissage en profondeur) est une forme encore plus Ă©laborĂ©e de machine learning qui veut agir comme le cerveau humain avec un systĂšme de type neuronal. Le programme informatique se perfectionne sans intervention de l’homme par un apprentissage non supervisĂ©[7]. Selon Yann Le Cun[8],  « La technologie du deep learning apprend Ă  reprĂ©senter le monde. C’est-Ă -dire comment la machine va reprĂ©senter la parole ou l’image ? ».

On peut attendre de ces robots « intelligents » des progrĂšs considĂ©rables dans le domaine de l’assistance aux personnes, de la sĂ©curitĂ©, de la surveillance, tant du point de vue qualitatif que du point de vue quantitatif.

Par exemple, DubaĂŻ envisage de mettre en Ɠuvre des patrouilles de robots policiers autonomes dans les centres commerciaux et d’autres lieux lors de l’Exposition universelle de 2020
 En juillet 2016, Ă  Dallas, pour neutraliser l’auteur du meurtre de cinq policiers retranchĂ© dans un parking, la police amĂ©ricaine a fait usage d’un robot tĂ©lĂ©commandĂ© Ă©quipĂ© d’un explosif[9]. Il s’agit vraisemblablement d’un robot dĂ©jĂ  utilisĂ© par l’armĂ©e amĂ©ricaine en Irak. Certes, en l’occurrence, il s’agit d’un engin dĂ©pendant de l’action humaine, puisque tĂ©lĂ©commandĂ©, mais on peut imaginer demain des robots entrant en action proprio motu. Cette utilisation offensive d’un robot renvoie au rapport,  publiĂ© le 9 mars 2015[10], par l’ONG Human Right Watch et l’universitĂ© d’Harvard[11], qui demande Ă  l’ONU de se saisir de la question des robots « tueurs » pour dĂ©finir la responsabilitĂ© juridique : l’État, le fabricant, une tierce personne ? Le Centre de recherche des Ă©coles de CoĂ«tquidan (CREC) approfondit la rĂ©flexion sur la robotique du champ de bataille, notamment avec le Combat Studies Institute de l’US Army.

Vers un statut juridique du robot ?

Le robot va-t-il remettre en cause tous les principes sur lesquels reposent aujourd’hui les rĂšgles de responsabilitĂ© civile ou pĂ©nale et crĂ©er des dĂ©sĂ©quilibres, notamment financiers ? En mai 2016, Mady Delvaux[12] a dĂ©posĂ© un rapport, Ă  destination de la Commission europĂ©enne, relatif Ă  un projet  de directive sur les rĂšgles de droit civil de la robotique. Parce que « le dĂ©veloppement de la robotique et de l’intelligence artificielle pourrait avoir pour consĂ©quence l’accomplissement par des robots d’une grande partie des tĂąches autrefois dĂ©volues aux ĂȘtres humains », elle prĂ©conise, en particulier, de leur faire payer des cotisations sociales Ă  la place des humains dont ils auront pris l’emploi et de crĂ©er un revenu universel de base pour tous ceux qui n’auront plus accĂšs au marchĂ© de l’emploi. La dĂ©putĂ©e europĂ©enne considĂšre que « grĂące aux impressionnants progrĂšs de la technique au cours des dix derniĂšres annĂ©es, non seulement les robots contemporains sont capables de mener Ă  bien des tĂąches qui relevaient autrefois exclusivement de la compĂ©tence humaine, mais encore que la mise au point de fonctionnalitĂ©s autonomes et cognitives (comme la capacitĂ© de tirer des leçons de l’expĂ©rience ou de prendre des leçons indĂ©pendantes) rapprochent davantage ces robots du statut d’acteurs interagissant avec leur environnement et pouvant le modifier de maniĂšre significative ; que dans un tel contexte , la question de la responsabilitĂ© juridique en cas d’action dommageable d’un robot devient cruciale ». Faut-il un droit « des robots » ou un droit « pour les robots » ? En appelant « à trancher la question fondamentale de l’octroi ou non d’une personnalitĂ© juridique aux robots », Mady Delvaux donne une rĂ©sonance Ă  la position d’Alain Bensoussan, avocat spĂ©cialisĂ© dans les nouvelles technologies, qui, le premier, a rĂ©clamĂ© cette personnalitĂ© juridique pour les robots, Ă  l’instar de celle attribuĂ©e aux personnes morales[13]. Aujourd’hui « objets de droits »[14], ils doivent, selon lui, devenir « sujets de droit » ou, au moins, relever d’un droit spĂ©cifique[15], car les robots, contrairement aux automates, possĂšdent une forme d’intelligence, de capacitĂ© de comprĂ©hension, voire de perception des sentiments[16]. Ils peuvent, de ce fait, acquĂ©rir une autonomie qui leur permet de prendre des dĂ©cisions Ă  caractĂšre juridique, par action ou abstention et donc ĂȘtre Ă  l’origine d’un prĂ©judice qu’il faudra couvrir[17]. Lorsque l’intelligence artificielle gĂ©nĂ©rera une nouvelle intelligence artificielle sans intervention humaine, les robots franchiront le seuil de singularitĂ© technologique. MaĂźtre Bensoussan souligne que les robots peuvent ĂȘtre des « concentrateurs d’intimité »[18], capables de capter, traiter, Ă©changer des donnĂ©es Ă  caractĂšre personnel et notamment mĂ©dicales des personnes qu’ils assistent. Le robot devrait, selon lui, avoir un nom et mĂȘme un genre, avec un numĂ©ro d’immatriculation[19]. Cette personnalitĂ© robotique est contestĂ©e par d’autres juristes qui  considĂšrent que les rĂšgles de droit existantes sont suffisantes et qu’une telle disposition aurait pour effet de dĂ©responsabiliser leurs propriĂ©taires[20].

La premiĂšre approche nous semble plus conforme Ă  une rĂ©alitĂ© qui se dessine et qui ne relĂšve pas de l’utopie ! La rĂ©flexion relative au droit civil peut ĂȘtre Ă©largie Ă  la responsabilitĂ© pĂ©nale. La multiplication de machines dans l’espace public, notamment avec des liaisons sans fil, peut engendrer le risque d’une prise de contrĂŽle malveillante ou d’un accident : qui sera responsable pĂ©nalement ? Le concepteur, le fabricant, celui qui l’a acquise, celui qui l’utilise, ou le robot ? Lors d’une exposition « The Darknet : From Memes to Onionland » qui s’est tenue Ă  Zurich du 5 au 11 janvier 2015, deux artistes suisses du Mediengruppe Bitnik ont prĂ©sentĂ© un robot automatisĂ© « Random Darknet Shopper » qui  fait des achats sur le Darknet, sur le site  AlphaBay, Ă  travers le rĂ©seau TOR, avec un budget de 100 dollars en bitcoins par semaine. Certaines de ces acquisitions, livrĂ©es et exposĂ©es au Kunst Halle St.Gallen, soulĂšvent Ă©videmment des problĂšmes de droit : un sac Louis Vuitton ou un polo Lacoste contrefait, 10 pilules d’ecstasy, des cigarettes de contrebande, un faux passeport hongrois, etc. Qui est responsable pĂ©nalement ? Les artistes qui ont mis le robot en situation d’accomplir un acte illicite ?  Aujourd’hui, sans aucun doute, mĂȘme si la justice leur a finalement rendu leur robot confisquĂ©, mais qu’en sera-t-il demain si le robot acquiert une vĂ©ritable autonomie, grĂące Ă  l’intelligence artificielle qui lui donnera une capacitĂ© de discernement, Ă©lĂ©ment clef de la responsabilitĂ© pĂ©nale ? De mĂȘme qu’il existe une responsabilitĂ© pĂ©nale des personnes morales, on peut imaginer une responsabilitĂ© pĂ©nale des personnes Ă©lectroniques. Un robot devant des juges, au pĂ©nal comme au civil, est-ce une vue de l’esprit ou une rĂ©alitĂ© dans les dix prochaines annĂ©es[21] ?

 

L’homme remplacé ?

La « robolution » va crĂ©er la symbiose entre l’homme et la machine, grĂące Ă  des interfaces (Brain Computer Interfaces). Le dialogue homme/machine pourrait s’accompagner du transfert de l’intelligence humaine vers cette derniĂšre. Le tĂ©lĂ©chargement de l’esprit (Mind Uploading) vise Ă  transfĂ©rer le contenu d’un cerveau humain sur un ordinateur, sa dĂ©matĂ©rialisation dans le cloud et sa rĂ©implantation dans un robot. Tel est l’objectif du projet Blue Brain lancĂ© en 2005 par l’École Polytechnique de Lausanne.

Mais, les capacitĂ©s n’étant pas limitĂ©es (semble-t-il), la machine pourrait devenir plus intelligente que l’homme. Ces robots seront-ils “humains”, capables d’avoir des Ă©motions, de percevoir celles des personnes, d’exprimer des sentiments ?

Pour Ray Kurzweil, les robots seront proches des humains en 2029
Selon lui, ils seront « capables d’intelligence Ă©motionnelle, d’ĂȘtre drĂŽles, de comprendre des blagues, d’ĂȘtre sexy, aimants et de comprendre l’émotion humaine »[22]. Le 27 juin 2015, deux robots japonais, Frois et Roborin, ont Ă©tĂ© « mariĂ©s » selon le rite traditionnel avec comme tĂ©moin Pepper, un autre robot. Softbank, le fabricant japonais de Pepper, conçu par la sociĂ©tĂ© française Aldebaran Robotics, stipule dans le manuel d’instruction qu’il est interdit d’avoir des comportements sexuels et indĂ©cents avec son robot
 Mais l’entreprise canadienne Abyss Creation a annoncĂ© qu’elle allait mettre sur le marchĂ© un « robot sexuel » en 2017[23].

Asimov, le prophĂšte

ProphĂšte, Asimov, auteur amĂ©ricain d’origine russe, l’est sans doute, car les lois qu’il Ă©nonce semblent Ă©crites pour le XXIe siĂšcle. Elles viennent en rĂ©action Ă  l’image du robot tueur vĂ©hiculĂ©e par la science-fiction des annĂ©es trente. Pour lutter contre le complexe de Frankenstein, il publie, en 1940, un roman, Robbie, qui a pour hĂ©ros un robot sympathique et noble qui s’occupe d’un enfant. Asimov Ă©crit des nouvelles pour le magazine Astounding Science Fiction, dirigĂ© par John Campbell. De leur dialogue va naĂźtre la question des relations entre l’homme et le robot au travers de la formulation de trois lois, exposĂ©es dans la nouvelle Runaround (1942), et qui doivent « ĂȘtre intĂ©grĂ©es au plus bas niveau du cerveau positronique ». En 1948, dans Les HumanoĂŻdes, Jack Williamson, applique les trois lois aux robots qu’il met en scĂšne. PrĂšs d’un demi-siĂšcle plus tard, Asimov ajoute la « zĂ©roiĂšme loi », par l’intermĂ©diaire du robot Daneel Olivaw[24] : « Un robot ne peut porter atteinte Ă  l’humanitĂ©, ni, restant passif, permettre qu’un ĂȘtre humain soit exposĂ© au danger ». En 2014, le chercheur en robotique Alan Winfield a expĂ©rimentĂ© la premiĂšre loi d’Asimov en plaçant un robot devant un trou pour empĂȘcher d’autres robots de tomber dedans. L’expĂ©rience montre que le robot est confrontĂ© Ă  des difficultĂ©s de choix dĂšs que le nombre de robots Ă  protĂ©ger augmente.

LES TROIS LOIS D’ISAAC ASIMOV (ROMANCIER)

-Un robot ne peut porter atteinte Ă  un ĂȘtre humain, ni, restant passif, permettre qu’un ĂȘtre humain soit exposĂ© au danger ;

– Un robot doit obĂ©ir aux ordres que lui donne un ĂȘtre humain, sauf si de tels ordres entrent en conflit avec la premiĂšre loi ;

– Un robot doit protĂ©ger son existence tant que cette protection n’entre pas en conflit avec la premiĂšre ou la deuxiĂšme loi.

 

Vers une cyberéthique ?

L’homme « augmenté » sera-t-il, en vĂ©ritĂ©, un homme diminuĂ©, asservi ? Au-delĂ  du droit, la « Robolution » soulĂšve des questions existentielles qui relĂšvent de l’identitĂ© de l’homme, de son unicitĂ©, de sa capacitĂ© Ă  dĂ©cider de maniĂšre autonome. Comme l’affirme Gilles Babinet[25], « les critiques Ă  l’égard de Kurzveil ou de la logique libertarienne et utilitariste en vogue outre Atlantique n’auront de pertinence que si nous parvenons Ă  ĂȘtre capables de leur opposer un modĂšle qui ne soit pas, d’une façon ou d’une autre, un refus manichĂ©en de la modernité ». Pour Stephen Hawking, astrophysicien britannique, enseignant Ă  Cambridge, l’intelligence artificielle menace le genre humain : « Les formes primitives d’intelligence artificielle que nous avons dĂ©jĂ  se sont montrĂ©es trĂšs utiles. Mais je pense que le dĂ©veloppement d’une intelligence artificielle complĂšte pourrait mettre fin Ă  la race humaine. [
] Une fois que les hommes auraient dĂ©veloppĂ© l’intelligence artificielle, celle-ci dĂ©collerait seule et se redĂ©finirait de plus en plus vite. Les humains, limitĂ©s par une lente Ă©volution biologique, ne pourraient pas rivaliser et seraient dĂ©passĂ©s »[26]. Lors de la confĂ©rence Zietgeist 2015, Ă  Londres, il ajoute « nous devons absolument nous assurer que les objectifs des ordinateurs sont les mĂȘmes que les nĂŽtres ».

On ne peut, de toute Ă©vidence arrĂȘter le progrĂšs, mais il existe dĂ©jĂ  des situations contemporaines pour lesquelles le droit pĂ©nal met un coup d’arrĂȘt aux applications scientifiques les plus folles. Entre ce que l’on sait faire et ce que l’on a le droit de faire, il peut exister un Ă©cart, celui Ă©tabli par la loi et, tout particuliĂšrement dans le cas qui nous intĂ©resse, par le respect de principes gĂ©nĂ©raux qui transcendent les choix et leur confĂšrent une lĂ©gitimitĂ©. Depuis la loi du 6 aoĂ»t 2004, le code pĂ©nal contient des dispositions relatives Ă  la bioĂ©thique mĂ©dicale. Il interdit, par exemple, le clonage d’ĂȘtres humains ou certaines recherches sur l’embryon[27]. Il y aura sans doute dans quelques annĂ©es un chapitre du code pĂ©nal consacrĂ© Ă  la « cyberĂ©thique ». Ce chapitre pourrait notamment comprendre les infractions Ă  la loi informatique et libertĂ© de 1978 qui sont dĂ©jĂ  des rĂšgles d’éthique. Dans sa dĂ©claration du 25  novembre 2014 (art.3), le G29 souligne que la technologie est un moyen qui doit demeurer au service de l’homme : « Le fait qu’un  traitement de donnĂ©es soit techniquement faisable, qu’il puisse parfois rĂ©vĂ©ler des informations utiles au renseignement ou permettre le dĂ©veloppement de nouveaux services n’implique pas qu’il soit de ce fait acceptable sur les plans social et Ă©thique, ni qu’il soit raisonnable ou conforme Ă  la loi » (article 3 de la dĂ©claration). La cyberĂ©thique rejoindra la bioĂ©thique car des recherches sont Ă©galement entreprises par des israĂ©liens et des amĂ©ricains pour dĂ©velopper un ordinateur biologique, fabriquĂ© Ă  partir de matĂ©riel humain, de l’ADN et de l’ARN. Le « transcriptor », nom donnĂ© au transistor biologique, permet de crĂ©er un ordinateur dans une cellule vivante. Selon Drew Endy, responsable de la recherche, « les ordinateurs biologiques peuvent ĂȘtre utilisĂ©s pour Ă©tudier ou reprogrammer les systĂšmes vivants, surveiller l’environnement et amĂ©liorer les thĂ©rapies cellulaires »[28]. Mais il ne suffit pas de crĂ©er le droit, il faut aussi le faire appliquer, tĂąche beaucoup plus complexe dans le monde immatĂ©riel que dans le monde rĂ©el. Paraphrasant Malraux on pourrait affirmer que « Le XXIe siĂšcle sera celui de la cyberĂ©thique ou ne sera pas ! ».

References[+]


Du mĂȘme partenaire

La deepfake reality : vers la fin de la vérité dans le cyberespace...

Sociétés, Cultures, Savoirs

Par Franck DeCloquement

Source : CREOGN

Mis en ligne le 17 Oct 2017

Cyberattaques : peut-on craindre des consĂ©quences sur l’intĂ©gritĂ© physique des personnes ?

Défense et Sécurité

Par Sylvain CHAUMETTE

Source : CREOGN

Mis en ligne le 17 Oct 2017

Les algorithmes et l'Intelligence-Led Policing

Défense et Sécurité

Par Nicolas Valescant, Daniel CĂąmara

Source : CREOGN

Mis en ligne le 17 Oct 2017


Articles de la catégorie Sociétés, Cultures, Savoirs

La deepfake reality : vers la fin de la vérité dans...

Par Franck DeCloquement

Source : CREOGN

Mis en ligne le 14 Apr 2022

L'érosion de la démocratie par le complotisme

Par Olivier Klein, Camilla Arnal, Kenzo Nera

Source : IRIS

Mis en ligne le 14 Apr 2022

The Revenge of the Germs

Par Alain BAUER

Source : CNAM-ESD

Mis en ligne le 15 Jun 2021

Nos partenaires

 

afficher tout