14 juillet 2017

Intelligence artificielle

Intelligence artificielle, du fantasme à la réalité (23.07.2017)
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)



Intelligence artificielle, du fantasme à la réalité (23.07.2017)

http://lefigaro.fr/secteur/high-tech/2017/07/23/32001-20170723ARTFIG00169-intelligence-artificielle-du-fantasme-a-la-realite.php



Publié le 23/07/2017 à 21h29

INTELLIGENCE ARTIFICIELLE (1/6) - Conçue en 1956 par des chercheurs géniaux, l'IA n'en est encore qu'à ses premiers pas. Mais elle fait déjà peur.

Que vous discutiez avec la SNCF via un chatbot, triiez vos photos sur Facebook, traduisiez un auteur bulgare en français ou que vous preniez place dans une voiture autonome, vous commencez à vous habituer à vivre aux côtés de machines animées d'une intelligence artificielle (IA). Depuis cinq ans, ce vieux fantasme est devenu «le» sujet à la mode. Une mode qui a pourtant… soixante ans. Ce concept est né en août 1956 dans les locaux du Dartmouth College (New Hampshire).

Quatre chercheurs trentenaires, John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon, invitent alors les plus brillants esprits de leur temps à plancher sur une lubie: créer une machine douée de langage, capable de former des concepts et des abstractions et de résoudre des problèmes que seul l'homme est apte à traiter. Ils s'inscrivent dans les pas du génial Alan Turing, décrypteur de la machine Enigmaqui s'est suicidé en 1954. Après des dizaines d'années de recherches protéiformes et d'avancées dans certains domaines comme la robotique ou la reconnaissance vocale, les résultats se sont avérés décevants. À tel point que la plupart des recherches ont été abandonnées et que l'IA a traversé un véritable hiver. Même si, en 1997, Deep Blue, la machine d'IBM, humilie le champion du monde des échecs Garri Kasparov et que, treize ans plus tard, sa petite sœur Watson gagne le jeu «Questions pour un champion», on est loin du but. Ces machines surpuissantes apprennent vite et calculent bien. Mais elles ne sont pas intelligentes.

Deux écoles s'affrontent

Il faut attendre 2012 pour qu'une étincelle jaillisse dans la nuit. Grâce à la disponibilité conjuguée de nouveaux processeurs graphiques (GPU) et de vastes bases de données, les travaux sur les réseaux de neurones des chercheurs Yann LeCun et Geoffrey Hinton prennent enfin corps. Ces réseaux imitent le processus des synapses dans le cerveau. Le Deep Learning («apprentissage profond») voit le jour. Il est déjà très répandu et les géants d'Internet Facebook, Google, IBM, Amazon ou Tencent investissent massivement. Facebok a recruté Yann LeCun pour diriger son laboratoire, et Geoffrey Hinton dirige celui de Google. La machine est capable d'apprendre par elle-même. Si on l'entraîne à traduire l'anglais en russe et le russe en japonais, elle traduira d'elle-même l'anglais en japonais. Après avoir visionné des millions d'images de bouteilles, elle en reconnaît une sur une photo. Mais si cette dernière est posée en déséquilibre sur une table, elle ne pourra pas anticiper sa chute. Ce qui paraît pourtant évident à n'importe qui.
Un enfant comprend vite que lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine non. «Il lui manque encore le sens commun», assure Yann LeCun. Aujourd'hui, deux écoles s'affrontent. Les transhumanistes pensent qu'en multipliant la puissance de calcul et la masse des données, le Deep Learning égalera l'intelligence humaine. D'autres commencent à penser que cela mènera à une impasse. Il va falloir explorer de nombreuses voies pour que la machine saisisse les émotions, la sémantique ou le contexte qu'un homme utilise pour interpréter le «non dit» ou le «non montré». Dans un futur proche, la machine pourra remplir de nombreuses tâches complexes et calculer la probabilité d'événements. Mais elle ne pourra toujours pas imiter le dialogue plein de tendresse entre un enfant et sa maman, saisir les ressorts humains comme l'a fait Shakespeare ou affirmer que «Dieu est mort».

En attendant, les chercheurs plaident pour donner une éthique à ces machines. Car déjà elles utilisent des chemins détournés pour résoudre une tâche. Il faut absolument garder le contrôle sur tout le processus de décision pour éviter le phénomène des «boîtes noires». Enfin, les réseaux neuronaux sont aujourd'hui entraînés par des chercheurs majoritairement occidentaux, adultes et très éduqués. Ce que les machines apprennent dépend de ce qu'on leur enseigne. On est loin d'une intelligence universelle.

La rédaction vous conseille :



Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)


Par Marc Rameaux Mis à jour le 20/07/2017 à 17:58 Publié le 20/07/2017 à 16:12
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations

FIGAROVOX/TRIBUNE - « L'Intelligence artificielle constitue un risque majeur pour la civilisation » a récemment déclaré Elon Musk, PDG notamment de Neuralink, start-up dont l'objectif est d'ajouter au cerveau humain une part d'intelligence artificielle. Marc Rameaux analyse la dérégulation transhumaniste qui nous guette.

Marc Rameaux est Directeur de projet dans une grande entreprise industrielle. Il est l'auteur de Portrait de l'homme moderne. Vous pouvez également retrouver ses chroniques sur son blog: Le troisième homme

«L'Intelligence artificielle constitue un risque majeur pour la civilisation». Ainsi s'exprimait Elon Musk samedi dernier, lors du séminaire d'été de l'US National Governors Association à Rhode Island. Le patron de Tesla en appelle à la mise en place urgente d'une régulation sur les technologies d'IA, craignant qu'elles ne dépassent l'homme dans tous les domaines et déstabilisent gravement la société.
L'avertissement de Musk peut faire sourire à deux titres. En premier lieu, ne fait-il pas partie des NATU, acronyme complémentaire des GAFA, qui agrège Netflix, Airbnb, Tesla et Uber? Or, les NATU sont une surenchère dans la voracité des champions technologiques, faisant passer les GAFA pour des enfants de chœur.
Les GAFA ont été capables de piétiner la propriété intellectuelle par des projets de numérisation massive, de violer la confidentialité de nos données personnelles et de les commercialiser auprès de tiers inconnus, enfin de s'affranchir de toute loi fiscale ou régulatrice. Les NATU franchissent un cran supplémentaire dans la dérégulation dévastatrice, par une précarisation croissante de leurs salariés, des pratiques commerciales relevant du dumping ou de la spéculation immobilière, des clauses d'utilisation de leurs produits ne protégeant plus leurs clients ou pouvant être modifiées sans leur avis.
Les déclarations fracassantes de Musk (il n'en est pas à sa première concernant l'IA) semblent plus relever de la publicité en faveur de ses marques que de la préoccupation humaniste.
La puissance et l'extra-territorialité des transactions du Web rendent leur contrôle quasi impossible. L'on peut donc s'amuser de voir l'un des piliers des NATU en appeler à davantage de régulation.
L'autre point d'ironie est que les déclarations fracassantes de Musk - il n'en est pas à sa première concernant l'IA - semblent plus relever de la publicité en faveur de ses marques que de la préoccupation humaniste. La prise de contrôle de nos sociétés par les machines reste une préoccupation mineure comparée aux dangers de la surpopulation, de l'inégalité des revenus ou de la montée des fondamentalismes.
Faut-il donc répondre à cet appel par un haussement d'épaules? Non, car au-delà de l'aspect effrayant et caricatural des NATU, comprendre la Valley et les leçons que nous devrions en tirer, c'est aussi comprendre un entrepreneur tel que Musk. S'il faut s'inquiéter d'une course à l'innovation qui prépare le terrain de la course à la dérégulation, l'argument du grand méchant loup à l'encontre des NATU et GAFA relève de l'infantilisme.
La Valley regorge de ces personnalités paradoxales, que certains dénoncent comme de jeunes vampires prêts à tout pour être reconnus et que d'autres encensent comme des visionnaires animés de réels buts philanthropiques. Ce que l'on ne voit pas est que ces deux facettes sont également vraies, et qu'une personnalité comme Musk en est l'une des meilleures incarnations.
Si les visions d'Elon Musk ont souvent paru souligner les extravagances de la Valley, elles se sont avérées profondes avec le temps et le patron de Tesla mérite en cela le respect. Ce qu'il souligne concernant l'IA ne fait pas exception: il détecte un danger d'autant plus critique qu'il est peu apparent. La menace de l'IA ne se trouve pas là où nous le pensons.
La peur d'une machine qui gagne son autonomie est plus ancienne que l'IA
Les dangers de l'IA ont été perçus bien à l'avance par l'imagination humaine, y compris avant même que l'IA n'existe concrètement. De HAL, l'ordinateur fou de 2001 l'odyssée de l'espace, à Ultron en passant par Terminator, l'idée d'une intelligence capable de comprendre, décider et agir au moins aussi bien qu'un être humain, pour s'émanciper de celui-ci jusqu'à décider de l'éliminer, a alimenté les meilleurs auteurs d'œuvres fantastiques.
C'est un auteur français qui a perçu le plus en avance ces questions. En plein XIXème siècle, Villiers de L'Isle-Adam écrivait «L'Ève future», imaginant une Andréide créée par Edison, pour se substituer à la femme aimée d'un jeune lord Anglais. L'auteur français anticipe ces sordides poupées d'amour que la technologie met à présent sur le marché dans des versions de plus en plus perfectionnées et pousse le génie jusqu'à mettre en scène un véritable test de Turing que son andréide réussit, des décennies avant que le logicien anglais n'en définisse le protocole.
Le thème du cyborg tueur ou trompeur apparut presque aussi rapidement que la fabrication des premiers automates. Parfois le rapport est inversé, l'être artificiel nous renvoyant à notre inhumanité et notre indifférence postmoderne, tels les répliquants de Blade Runner ou le petit garçon robot aimant désespérément sa maman de chair et de sang dans l'AI de Spielberg: dans ce cas, les êtres fabriqués se révèlent plus empathiques qu'une humanité dévastée par la poursuite de ses buts égoïstes.
Une intelligence artificielle est finalisée dans un certain but, dont elle optimisera l'atteinte avec une efficacité supérieure à la nôtre. Si la machine est dotée d'autonomie, elle peut arriver à la conclusion que le peu de fiabilité des humains est un obstacle au but pour lequel elle est programmée. L'humain devra alors être éliminé comme une scorie gênante, au mieux toléré en exigeant de lui une adaptabilité croissante aux besoins du processus. Le concepteur humain prévoit bien sûr un bouton de mise à l'arrêt. Mais le problème advient lorsque nos machines pensantes acquièrent une autonomie telle que l'idée leur vient de supprimer le bouton…
La notion de robot tueur ne relève pas de la prospective lointaine, elle est déjà une réalité.
La notion de robot tueur ne relève pas de la prospective lointaine, elle est déjà une réalité. Les interventions militaires de drones, ont déjà fait des centaines de victimes civiles. En avril 2015, deux otages d'Al-Qaïda membres d'une ONG furent tués par un drone à la frontière pakistano-afghane, obligeant Barack Obama à une reconnaissance publique de l'erreur et à une indemnisation des familles des victimes.
Dans le développement des voitures autonomes, des questions éthiques se posent si dans une situation très critique, la voiture robot n'a plus le choix qu'entre de mauvaises solutions mettant la vie humaine en danger. Il devra alors prendre la décision de savoir qui sera sacrifié, de la vieille dame qui traverse, de l'enfant se trouvant de l'autre côté du passage piéton, de l'homme qui conduit la voiture adjacente, ou de son propre passager humain.
La nécessité d'une régulation du comportement des robots apparut presque aussi vite que son invention: les trois lois d'Asimov sont devenues une réalité plus que tangible avec les 23 principes d'Asilomar édictés en janvier 2017, soutenus par plus de 2000 signataires parmi les meilleurs scientifiques et industriels du domaine, dont Elon Musk et Stephen Hawking. Ces règles sont destinées à doter la recherche en IA d'un surmoi, un rappel des buts humains pour lesquels elle a été conçue initialement.
L'étrange résonance entre IA en réseau et dérégulation économique
Pourquoi Elon Musk perpétue-t-il donc cette inquiétude, quant à une technologie qui semble être en bonne voie de régulation? Parce qu'il a très bien perçu qu'au-delà des intentions, nous pourrions perdre le contrôle des machines pensantes de la même façon et pour les mêmes raisons que nous perdons le contrôle des régulations économiques. Nous allons le voir, l'IA est en quelque sorte une extension surpuissante prolongeant le libéralisme économique, pouvant en amplifier les effets non contrôlés dans des proportions inconcevables.
Pour comprendre ce nouveau danger, nous devons introduire une brève distinction technique. L'IA emploie des méthodes assez variées, pouvant se ramener cependant à deux grandes catégories: les approches «cognitivistes» et «connexionnistes».
Les premières correspondent à la tentative naturelle de fabriquer une intelligence: elles modélisent le raisonnement, posent un univers de règles et d'inférences, déduisent et concluent avant d'agir. Elles «comprennent» les problèmes qu'elles abordent, dans la mesure où elles apprennent à les interpréter. Ces approches sont sans danger, car elles restent entièrement traçables: nous pouvons à tout moment détecter et comprendre pourquoi la machine a pris telle ou telle décision. Ces approches ont connu un certain succès au début de l'IA, mais se sont révélées insuffisantes face à certains problèmes complexes, notamment ceux visant à reconnaître des formes, à synthétiser des informations continues, à mimer au plus près le comportement humain.
L'approche connexionniste emploie une tout autre notion, celle d'intelligence collective. Elle met en œuvre un très grand nombre de petites unités simples, souvent inspirées du vivant telles que les neurones, pourvues d'une faible intelligence individuelle, mais de capacités phénoménales lorsqu'elles agissent en réseau. L'unité élémentaire est une cellule répondant à des stimuli d'entrée par quelques réponses simples, qu'elle propage aux cellules environnantes. Le réseau connexionniste n'a aucune «compréhension» de la situation à laquelle il est confronté: il se contente de répondre à des stimuli par d'autres stimuli.
L'approche connexionniste est l'intelligence de la fourmilière : chaque unité est rudimentaire, mais collectivement, elle atteint une capacité très supérieure.
Des lois très simples régissent les connexions entre les cellules: lorsque deux d'entre elles sont excitées conjointement, leur liaison se renforce, dans le cas contraire, leur liaison s'affaiblit. Ce réseau de liaisons sait très mal répondre à ce qu'on lui demande d'apprendre au tout début. Mais rapidement, en lui montrant un très grand nombre d'exemples de réponses qu'il doit associer aux données qu'il reçoit, il se renforce constamment en pertinence et en précision, jusqu'à obtenir une efficacité sans égale.
L'approche connexionniste est l'intelligence de la fourmilière: chaque unité est rudimentaire, mais collectivement, elle atteint une capacité très supérieure à la somme des capacités individuelles de ses membres. Les sciences cognitives expliquent encore mal comment un réseau de cellules simples obéissant à quelques lois de renforcement de leurs liaisons peut arriver à s'adapter et à résoudre les problèmes les plus complexes. Elles parlent de «qualités émergentes», «d'auto organisation», mais plus pour en constater l'efficacité que la prouver.
Caractéristique gênante, les approches connexionnistes sont quasiment intraçables, contrairement aux approches cognitivistes. Il n'est plus possible d'expliquer simplement pourquoi le réseau a pris telle ou telle décision, le résultat étant noyé dans un jeu d'innombrables pondérations croisées dont on ne peut retrouver le fil. Une approche purement connexionniste est pour cette raison non admissible dans une voiture autonome. Des tentatives ont été faites de reconstituer le «raisonnement» du réseau, mais elles sont encore peu convaincantes.
Le danger ne viendra pas d'un cyborg tueur, mais de millions de petites cellules intelligentes, agissant en réseau, s'auto-renforçant et évoluant en permanence jusqu'à la mutation.
Cet élément technique acquis, nous pouvons comprendre que le danger ne viendra pas d'un cyborg tueur, mais de millions de petites cellules intelligentes, agissant en réseau, s'auto-renforçant et évoluant en permanence jusqu'à la mutation.
La puissance de l'intelligence répartie est d'autant plus redoutable qu'elle est disséminée. Et la dissémination suprême consiste évidemment à être répartie partout sur le Web. Une interview de Musk et de Sam Altman, responsable de l'un des principaux incubateurs de la Valley, est plus qu'explicite: la question n'est pas celle du robot, qui n'est qu'un ensemble de capteurs et d'actionneurs, mais des algorithmes se trouvant sur le Web, selon les propres termes de Musk.
L'IA redoutable est immatérielle: pas de manchette d'acier ou de rayon fatal comme le veulent les séries B de science-fiction, mais des millions de petits logiciels répartis, peu intelligents en eux-mêmes mais agissant en réseau de façon coordonnée, parvenant à une maîtrise collective stupéfiante mais non traçable et sans qu'une entité en particulier ne soit responsable.
Quels pourraient être ces dangers d'une telle IA répartie? Nous savons déjà que des algorithmes complexes flairent nos moindres goûts et centres d'intérêt pour nous présenter des propositions alléchantes à chaque détour d'un site de commerce en ligne. L'anticipation de nos désirs par recoupement d'informations atteint parfois une précision si confondante qu'elle est inquiétante.
Étendons cette compréhension fine à d'autres domaines. La tarification de tous les services auxquels nous souscrivons peut-être rendue totalement variable, ajustable en temps réel. Irréaliste? C'est pourtant le cas de nos billets de train, dont le prix varie très fortement en fonction du moment. La tarification variable possède une justification très rationnelle, celle d'optimiser les pics de charge d'utilisation du service, en incitant à se présenter aux heures creuses. Ceci conduisit Uber à demander des tarifs exorbitants lors des attentats de Londres, simplement parce que l'algorithme calculait que les taxis devenaient une denrée rare et que l'on pouvait profiter de ce nouvel ajustement de l'offre et de la demande… Les algorithmes n'avaient aucune éthique vis-à-vis de la détresse dans laquelle se trouvaient les passants, l'optimisation du mieux-disant étant leur seule logique.
Si les services deviennent ainsi ajustables, changeant leurs tarifs sans prévenir et sans aucune notion d'engagement, pourquoi ne pas étendre de tels principes au droit du travail? Des algorithmes répartis mondialement compareraient en permanence les salaires, taux de disponibilité et productivité de chacun, et ajusteraient un contrat de travail instantané en permanence. La flexibilité parfaite, justifiée par le fait qu'ainsi chacun serait payé exactement à sa juste valeur, instantanément remplaçable si l'opportunité le permet. Nul souci dans cette belle optimisation, de la précarité qui interdirait tout projet personnel ni du long terme nécessaire au développement d'un être humain.
L'on ne pourrait confier ainsi notre avenir à un tel système de calcul? Nous venons pourtant de vivre une affectation des bacheliers dans les universités selon un algorithme de tirage aléatoire, soumettant les destins personnels de milliers d'étudiants au résultat arbitraire d'un algorithme. Celui-ci ne comportait pas d'IA, mais précisément imaginons son usage dans des cas touchant à nos études ou notre emploi: la décision est indétectable, non reconstituable, et sans responsable identifié car disséminée dans les interactions de milliers de modules coopératifs. Restera l'argument massue de considérer qu'il ne peut s'agir que de la décision la plus optimisée, donc ne souffrant aucune discussion.
Le droit du travail étant attaqué, pourquoi ne pas élargir le champ au droit tout court? Impossible? Le cabinet d'avocats BakerHostetler emploie depuis 2016 Ross, une IA fondée sur une technologie d'IBM effectuant en quelques secondes l'équivalent de milliers d'heures de travail de recherche dans les textes par des avocats humains. Les cols blancs ne sont pas plus épargnés par les menaces que l'IA fait planer sur leur emploi, avec une ubérisation de la profession d'avocat désormais en marche.
La logique du mieux disant qui est la seule loi des réseaux connexionnistes pourrait aboutir à des dérapages très dangereux dans le domaine du droit. Nos sociétés postmodernes ont de plus en plus tendance à relâcher l'universalité de la loi pour céder à son adaptation régionale voire à son complet morcellement selon les villes et quartiers. L'on voit ainsi régulièrement des élus nous expliquer que l'interdiction des femmes dans les cafés, l'observance d'interdits alimentaires religieux ou l'imposition de certaines relations hommes / femmes doit faire l'objet d'une adaptation au cas par cas.
La logique d'intelligence répartie répond à la décentralisation complète de nos règles, autorisant toutes les compromissions locales à partir du moment où elles sont rentables.
Les motivations de telles démissions sont connues: il s'agit d'une optimisation électorale, une suradaptation à la réalité locale de chaque quartier pour engranger le maximum de voix. Quelle tentation que celle d'un algorithme qui calculerait en permanence les adaptations de la loi en fonction des rapports de force locaux, assurant une paix fondée sur la flexibilité aux revendications des plus majoritaires localement et permettant une maximisation des chances électorales. La logique d'intelligence répartie répond à la décentralisation complète de nos règles, autorisant toutes les compromissions locales à partir du moment où elles sont rentables, économiquement comme électoralement.
Il ne faut pas penser que le monde matériel serait épargné, parce que c'est par le seul biais de morceaux de logiciels que l'IA agit. L'internet des objets remplace la puissance de calcul centralisée dans un PC par des dizaines de petits objets communicants, plus spécialisés et moins puissants qu'un ordinateur, mais agissant de façon redoutablement coordonnée pour gérer notre maison. Étendus au-delà de notre domicile, nous serons environnés de milliers de tels petits objets, interagissant en permanence pour recréer des logiques de réseaux disséminés. Mais qui dit dissémination dit faille: une cyberattaque récente s'est attaquée à des milliers de caméras de surveillance, beaucoup plus difficiles à toutes contrôler et protéger, pour investir des sites internet mondialement fréquentés.
L'étape ultime intervient lorsque la frontière entre le numérique et le vivant se met à céder. Elon Musk affirme que nous sommes déjà des cyborgs, les smartphones et autres objets connectés étant devenus des prothèses prolongeant l'usage de nos membres et de nos sens. Des connexions directes de l'influx nerveux vers nos smartphones sont envisagées, faisant des objets connectés des membres de notre corps à part entière. Enfin, des «nano-bots», robots microscopiques, pourraient être injectés dans notre flux sanguin. Individuellement capables d'opérations très limitées, leur organisation en réseau permettrait d'accomplir des tâches médicales de haute volée. Mais pour cette application de l'intelligence disséminée comme pour d'autres, que se passe-t-il si elle développe sa propre logique par auto-organisation, échappant à la nôtre?
Le jour où la terre s'arrêta et la mémoire d'Athènes
Le danger réel de l'IA et sa résonance troublante avec la dérégulation moderne apparaissent de manière frappante dans les deux versions du film de SF «Le jour où la terre s'arrêta», dans son ancienne version de 1951 et dans celle moderne de 2008. L'extraterrestre chargé de mettre en garde les terriens contre leur prochaine destruction est accompagné d'un robot garde du corps, Gort. Dans la version de 1951, Gort est représenté sous une forme humanoïde compacte et unie, capable de terrasser un adversaire par sa force mécanique ou un rayon émis par une fente oculaire. Il représente le fantasme du cyborg tueur, longtemps populaire, mais dont nous venons de comprendre qu'il n'est pas le vrai danger. Le Gort de la version de 2008, accompagnant Keanu Reeves, est capable de se dissocier en une multitude innombrable de petits insectes mécaniques, pouvant se reproduire, se déplaçant comme une nuée tueuse. La puissance collective de cet essaim est bien plus redoutable que celle du robot de 1951, car elle accomplit à elle seule la tâche de destruction de la terre.
La nouvelle version du film a bien ressenti notre évolution postmoderne. Les menaces ne sont plus un adversaire identifiable et massif, comme l'étaient les totalitarismes classiques. Elles sont fluides, adaptables, se dispersant à tous vents si l'on cherche à les pilonner, se resserrant comme les anneaux d'un python dans une étreinte implacable dès que l'opportunité se présente. Les réactions des marchés financiers à la moindre velléité d'ouvrir d'autres politiques ont cette fluidité des systèmes disséminés et coordonnés en réseau.
Telle est l'IA moderne, amplificateur inouï des dévoiements du libéralisme, car procédant du même principe de suradaptation aux plus petits équilibres locaux et de poursuite d'objectifs qui n'ont plus d'autre règle qu'eux-mêmes. Les humains déjà variables d'ajustement économiques deviendraient les animaux de compagnie des processus de l'IA, tolérés tant qu'ils n'introduisent pas trop d'impuretés dans l'optimisation d'ensemble, rayés d'un trait de crayon numérique plus implacable encore que celui des actionnaires s'ils s'opposent à la marche de l'optimalité.
La parade à ces nuées ardentes? Il faut s'attacher à l'universalité de la loi, rester dans ce domaine irréductiblement athénien, refuser les compromissions de l'adaptation instinctive et opportuniste qui dissout les hommes et l'éthique.
Le danger n'est pas technologique, il est dans le fait que ces intelligences non humaines nous renvoient à notre propre déshumanisation.
La rédaction vous conseille
Laurent Alexandre: «Bienvenue à Gattaca deviendra la norme»

L'homme augmenté, fantasme d'un monde qui rêve d'abolir la mort... de quelques privilégiés
Follow on Bloglovin
 

Archives (2011 à 2014)

Vous aimerez peut-être :

Related Posts Plugin for WordPress, Blogger...