Les géants de la tech s'opposent aux robots tueurs (21.08.2017)
Intelligence artificielle, du fantasme à la réalité (23.07.2017)
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)
Intelligence artificielle : pourquoi Terminator et Skynet ne sont pas pour demain (05.07.2017)
Les géants de la tech s'opposent aux robots tueurs (21.08.2017)
Elon Musk et 115 experts de l'intelligence artificielle
alertent l'ONU dans une lettre ouverte.
Ils se sentent tenus de «tirer le signal d'alarme». Cent
seize responsables d'entreprises de robotique et spécialistes de l'intelligence
artificielle ont écrit une lettre ouverte aux Nations unies afin de mettre en
garde contre les dangers des armes autonomes et «robots tueurs», que leurs
avancées technologiques permettent de développer. Ils redoutent ainsi «des
conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles
à concevoir pour les humains», dans un courrier diffusé dimanche par le Future
of Life Institute, organisme non lucratif basé aux États-Unis et qui met
régulièrement en garde contre les dévoiements possibles des technologies.
Outre Elon Musk, le patron milliardaire de Tesla et SpaceX,
la lettre est aussi portée par la voix de Mustafa Suleyman, fondateur de la
société d'intelligence artificielle DeepMind, détenue par Google, ainsi que
cinq dirigeants français, parmi lesquels les fondateurs de Snips et Heuritech.
«Je pense que le développement d'une intelligence
artificielle complète pourrait mettre fin à la race humaine»
Stephen Hawking , astrophysicien
Cette initiative survient à point alors que s'ouvre la
Conférence internationale conjointe sur l'intelligence artificielle (IJCAI),
grand-messe annuelle du secteur, qui rassemble 2000 experts à Melbourne ce
21 août. En 2015, plusieurs milliers de chercheurs et personnalités comme
l'astrophysicien Stephen Hawking y avaient lancé un appel pour l'interdiction
stricte des «armes offensives autonomes». «Je pense que le développement d'une
intelligence artificielle complète pourrait mettre fin à la race humaine»,
avait affirmé le scientifique.
Alors que les avancées technologiques en intelligence
artificielle suivent un rythme soutenu, ces experts s'inquiètent du temps
d'adaptation du législateur. L'ONU se penche en effet depuis 2013 sur les armes
autonomes et a récemment voté en faveur de discussions plus formelles au sujet
des robots tueurs, des drones, chars et mitrailleuses automatisés.
« Nous n'avons pas beaucoup de temps pour agir. Une fois
cette boîte de Pandore ouverte, elle sera difficile à refermer »
Les 116 signataires
Des réunions en ce sens devaient avoir lieu à partir de
lundi à Genève, mais ont finalement été reportées à novembre. Plusieurs
experts, dont Elon Musk, considèrent pourtant que le développement de robots
tueurs n'est plus une question de décennies mais d'années. La Russie,
les États-Unis et d'autres pays développent actuellement des robots activables
à distance ou autonomes. Plusieurs pays, comme le Royaume-Uni ou la France,
développent des prototypes d'armes autonomes. Le secteur privé n'est pas en
reste: la firme américaine Boston Dynamics, spécialiste des robots androïdes
capables d'intervenir sur champs de bataille, vient quant à elle d'obtenir le
soutien de SoftBank, l'un des plus importants fonds d'investissement mondiaux.
«Nous n'avons pas beaucoup de temps pour agir. Une fois
cette boîte de Pandore ouverte, elle sera difficile à refermer», alertent les
116 signataires. D'autant que la probabilité de conflit augmente dès lors
que des robots sont impliqués, défend Mary-Anne Williams, professeur à
l'Université de technologie de Sydney. Le risque d'utilisation de ces armes à
des fins dictatoriales ou terroristes ainsi qu'un risque de piratage sont
également pointés du doigt.
La rédaction vous conseille :
- Selon
des chercheurs, il ne reste que 45 ans aux humains avant d'être dépassés
par les machines
- Les
robots dans la peau du «grand méchant» au cinéma
- L'intelligence
artificielle en quête d'éthique pour rester sans danger pour l'humanité
- Elon
Musk et Mark Zuckerberg s'opposent sur l'intelligence artificielle
- Luc
Ferry: «Que faire face à l'intelligence artificielle?»
Intelligence artificielle, du
fantasme à la réalité (23.07.2017)
http://lefigaro.fr/secteur/high-tech/2017/07/23/32001-20170723ARTFIG00169-intelligence-artificielle-du-fantasme-a-la-realite.php
Publié le 23/07/2017 à 21h29
INTELLIGENCE ARTIFICIELLE (1/6) -
Conçue en 1956 par des chercheurs géniaux, l'IA n'en est encore qu'à ses
premiers pas. Mais elle fait déjà peur.
Que vous discutiez avec la SNCF
via un chatbot, triiez vos photos sur Facebook, traduisiez un auteur bulgare en
français ou que vous preniez place dans une voiture autonome, vous commencez à
vous habituer à vivre aux côtés de machines animées d'une intelligence
artificielle (IA). Depuis cinq ans, ce vieux fantasme est devenu «le» sujet à
la mode. Une mode qui a pourtant… soixante ans. Ce concept est né en
août 1956 dans les locaux du Dartmouth College (New Hampshire).
Quatre chercheurs trentenaires,
John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon, invitent
alors les plus brillants esprits de leur temps à plancher sur une lubie: créer
une machine douée de langage, capable de former des concepts et des
abstractions et de résoudre des problèmes que seul l'homme est apte à traiter.
Ils s'inscrivent dans les pas du génial Alan Turing, décrypteur
de la machine Enigma, qui
s'est suicidé en 1954. Après des dizaines d'années de recherches
protéiformes et d'avancées dans certains domaines comme la robotique ou la
reconnaissance vocale, les résultats se sont avérés décevants. À tel point que
la plupart des recherches ont été abandonnées et que l'IA a traversé un
véritable hiver. Même si, en 1997, Deep
Blue, la machine d'IBM, humilie le champion du monde des échecs Garri
Kasparov et que, treize ans plus tard, sa petite sœur Watson gagne le jeu
«Questions pour un champion», on est loin du but. Ces machines surpuissantes
apprennent vite et calculent bien. Mais elles ne sont pas intelligentes.
Deux écoles s'affrontent
Il faut attendre 2012 pour qu'une
étincelle jaillisse dans la nuit. Grâce à la disponibilité conjuguée de
nouveaux processeurs graphiques (GPU) et de vastes bases de données, les
travaux sur les réseaux de neurones des chercheurs Yann LeCun et Geoffrey
Hinton prennent enfin corps. Ces réseaux imitent le processus des synapses dans
le cerveau. Le Deep Learning («apprentissage profond») voit le jour. Il
est déjà très répandu et les
géants d'Internet Facebook, Google, IBM, Amazon ou Tencent investissent
massivement. Facebok a recruté Yann LeCun pour diriger son laboratoire,
et Geoffrey Hinton dirige celui de Google. La machine est capable
d'apprendre par elle-même. Si on l'entraîne à traduire l'anglais en russe et le
russe en japonais, elle traduira d'elle-même l'anglais en japonais. Après avoir
visionné des millions d'images de bouteilles, elle en reconnaît une sur une
photo. Mais si cette dernière est posée en déséquilibre sur une table, elle ne
pourra pas anticiper sa chute. Ce qui paraît pourtant évident à n'importe qui.
Un enfant comprend vite que
lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine
non. «Il lui manque encore le sens commun», assure Yann LeCun. Aujourd'hui,
deux écoles s'affrontent. Les transhumanistes pensent qu'en multipliant la
puissance de calcul et la masse des données, le Deep Learning égalera
l'intelligence humaine. D'autres commencent à penser que cela mènera à une
impasse. Il va falloir explorer de nombreuses voies pour que la machine
saisisse les émotions, la sémantique ou le contexte qu'un homme utilise pour
interpréter le «non dit» ou le «non montré». Dans un futur proche, la machine
pourra remplir de nombreuses tâches complexes et calculer la probabilité
d'événements. Mais elle ne pourra toujours pas imiter le dialogue plein de
tendresse entre un enfant et sa maman, saisir les ressorts humains comme l'a
fait Shakespeare ou affirmer que «Dieu est mort».
En attendant, les chercheurs
plaident pour donner une éthique à ces machines. Car déjà elles utilisent des
chemins détournés pour résoudre une tâche. Il faut absolument garder le
contrôle sur tout le processus de décision pour éviter le phénomène des «boîtes
noires». Enfin, les réseaux neuronaux sont aujourd'hui entraînés par des
chercheurs majoritairement occidentaux, adultes et très éduqués. Ce que les
machines apprennent dépend de ce qu'on leur enseigne. On est loin d'une
intelligence universelle.
La rédaction vous
conseille :
- Intelligence
artificielle: quand Elon Musk s'alarme de ses propres créations
- Laurent
Alexandre: «Bienvenue à Gattaca deviendra la norme»
- Intelligence
artificielle: une compétition technologique féroce
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)
Par Marc Rameaux Mis à jour le 20/07/2017 à 17:58 Publié le
20/07/2017 à 16:12
Intelligence artificielle : quand Elon Musk s'alarme de ses
propres créations
FIGAROVOX/TRIBUNE - « L'Intelligence artificielle constitue
un risque majeur pour la civilisation » a récemment déclaré Elon Musk, PDG
notamment de Neuralink, start-up dont l'objectif est d'ajouter au cerveau
humain une part d'intelligence artificielle. Marc Rameaux analyse la
dérégulation transhumaniste qui nous guette.
Marc Rameaux est Directeur de projet dans une grande
entreprise industrielle. Il est l'auteur de Portrait de l'homme moderne. Vous
pouvez également retrouver ses chroniques sur son blog: Le troisième homme
«L'Intelligence artificielle constitue un risque majeur pour
la civilisation». Ainsi s'exprimait Elon Musk samedi dernier, lors du séminaire
d'été de l'US National Governors Association à Rhode Island. Le patron de Tesla
en appelle à la mise en place urgente d'une régulation sur les technologies
d'IA, craignant qu'elles ne dépassent l'homme dans tous les domaines et
déstabilisent gravement la société.
L'avertissement de Musk peut faire sourire à deux titres. En
premier lieu, ne fait-il pas partie des NATU, acronyme complémentaire des GAFA,
qui agrège Netflix, Airbnb, Tesla et Uber? Or, les NATU sont une surenchère
dans la voracité des champions technologiques, faisant passer les GAFA pour des
enfants de chœur.
Les GAFA ont été capables de piétiner la propriété
intellectuelle par des projets de numérisation massive, de violer la
confidentialité de nos données personnelles et de les commercialiser auprès de
tiers inconnus, enfin de s'affranchir de toute loi fiscale ou régulatrice. Les
NATU franchissent un cran supplémentaire dans la dérégulation dévastatrice, par
une précarisation croissante de leurs salariés, des pratiques commerciales
relevant du dumping ou de la spéculation immobilière, des clauses d'utilisation
de leurs produits ne protégeant plus leurs clients ou pouvant être modifiées
sans leur avis.
Les déclarations fracassantes de Musk (il n'en est pas à sa
première concernant l'IA) semblent plus relever de la publicité en faveur de
ses marques que de la préoccupation humaniste.
La puissance et l'extra-territorialité des transactions du
Web rendent leur contrôle quasi impossible. L'on peut donc s'amuser de voir
l'un des piliers des NATU en appeler à davantage de régulation.
L'autre point d'ironie est que les déclarations fracassantes
de Musk - il n'en est pas à sa première concernant l'IA - semblent plus relever
de la publicité en faveur de ses marques que de la préoccupation humaniste. La
prise de contrôle de nos sociétés par les machines reste une préoccupation
mineure comparée aux dangers de la surpopulation, de l'inégalité des revenus ou
de la montée des fondamentalismes.
Faut-il donc répondre à cet appel par un haussement
d'épaules? Non, car au-delà de l'aspect effrayant et caricatural des NATU,
comprendre la Valley et les leçons que nous devrions en tirer, c'est aussi
comprendre un entrepreneur tel que Musk. S'il faut s'inquiéter d'une course à
l'innovation qui prépare le terrain de la course à la dérégulation, l'argument du
grand méchant loup à l'encontre des NATU et GAFA relève de l'infantilisme.
La Valley regorge de ces personnalités paradoxales, que
certains dénoncent comme de jeunes vampires prêts à tout pour être reconnus et
que d'autres encensent comme des visionnaires animés de réels buts
philanthropiques. Ce que l'on ne voit pas est que ces deux facettes sont
également vraies, et qu'une personnalité comme Musk en est l'une des meilleures
incarnations.
Si les visions d'Elon Musk ont souvent paru souligner les
extravagances de la Valley, elles se sont avérées profondes avec le temps et le
patron de Tesla mérite en cela le respect. Ce qu'il souligne concernant l'IA ne
fait pas exception: il détecte un danger d'autant plus critique qu'il est peu
apparent. La menace de l'IA ne se trouve pas là où nous le pensons.
La peur d'une machine qui gagne son autonomie est plus
ancienne que l'IA
Les dangers de l'IA ont été perçus bien à l'avance par
l'imagination humaine, y compris avant même que l'IA n'existe concrètement. De
HAL, l'ordinateur fou de 2001 l'odyssée de l'espace, à Ultron en passant par
Terminator, l'idée d'une intelligence capable de comprendre, décider et agir au
moins aussi bien qu'un être humain, pour s'émanciper de celui-ci jusqu'à
décider de l'éliminer, a alimenté les meilleurs auteurs d'œuvres fantastiques.
C'est un auteur français qui a perçu le plus en avance ces
questions. En plein XIXème siècle, Villiers de L'Isle-Adam écrivait «L'Ève
future», imaginant une Andréide créée par Edison, pour se substituer à la femme
aimée d'un jeune lord Anglais. L'auteur français anticipe ces sordides poupées
d'amour que la technologie met à présent sur le marché dans des versions de
plus en plus perfectionnées et pousse le génie jusqu'à mettre en scène un
véritable test de Turing que son andréide réussit, des décennies avant que le
logicien anglais n'en définisse le protocole.
Le thème du cyborg tueur ou trompeur apparut presque aussi
rapidement que la fabrication des premiers automates. Parfois le rapport est
inversé, l'être artificiel nous renvoyant à notre inhumanité et notre
indifférence postmoderne, tels les répliquants de Blade Runner ou le petit
garçon robot aimant désespérément sa maman de chair et de sang dans l'AI de
Spielberg: dans ce cas, les êtres fabriqués se révèlent plus empathiques qu'une
humanité dévastée par la poursuite de ses buts égoïstes.
Une intelligence artificielle est finalisée dans un certain
but, dont elle optimisera l'atteinte avec une efficacité supérieure à la nôtre.
Si la machine est dotée d'autonomie, elle peut arriver à la conclusion que le
peu de fiabilité des humains est un obstacle au but pour lequel elle est
programmée. L'humain devra alors être éliminé comme une scorie gênante, au
mieux toléré en exigeant de lui une adaptabilité croissante aux besoins du
processus. Le concepteur humain prévoit bien sûr un bouton de mise à l'arrêt.
Mais le problème advient lorsque nos machines pensantes acquièrent une
autonomie telle que l'idée leur vient de supprimer le bouton…
La notion de robot tueur ne relève pas de la prospective
lointaine, elle est déjà une réalité.
La notion de robot tueur ne relève pas de la prospective
lointaine, elle est déjà une réalité. Les interventions militaires de drones,
ont déjà fait des centaines de victimes civiles. En avril 2015, deux otages
d'Al-Qaïda membres d'une ONG furent tués par un drone à la frontière
pakistano-afghane, obligeant Barack Obama à une reconnaissance publique de
l'erreur et à une indemnisation des familles des victimes.
Dans le développement des voitures autonomes, des questions
éthiques se posent si dans une situation très critique, la voiture robot n'a
plus le choix qu'entre de mauvaises solutions mettant la vie humaine en danger.
Il devra alors prendre la décision de savoir qui sera sacrifié, de la vieille
dame qui traverse, de l'enfant se trouvant de l'autre côté du passage piéton,
de l'homme qui conduit la voiture adjacente, ou de son propre passager humain.
La nécessité d'une régulation du comportement des robots
apparut presque aussi vite que son invention: les trois lois d'Asimov sont
devenues une réalité plus que tangible avec les 23 principes d'Asilomar édictés
en janvier 2017, soutenus par plus de 2000 signataires parmi les meilleurs
scientifiques et industriels du domaine, dont Elon Musk et Stephen Hawking. Ces
règles sont destinées à doter la recherche en IA d'un surmoi, un rappel des
buts humains pour lesquels elle a été conçue initialement.
L'étrange résonance entre IA en réseau et dérégulation
économique
Pourquoi Elon Musk perpétue-t-il donc cette inquiétude,
quant à une technologie qui semble être en bonne voie de régulation? Parce
qu'il a très bien perçu qu'au-delà des intentions, nous pourrions perdre le
contrôle des machines pensantes de la même façon et pour les mêmes raisons que
nous perdons le contrôle des régulations économiques. Nous allons le voir, l'IA
est en quelque sorte une extension surpuissante prolongeant le libéralisme
économique, pouvant en amplifier les effets non contrôlés dans des proportions
inconcevables.
Pour comprendre ce nouveau danger, nous devons introduire
une brève distinction technique. L'IA emploie des méthodes assez variées,
pouvant se ramener cependant à deux grandes catégories: les approches
«cognitivistes» et «connexionnistes».
Les premières correspondent à la tentative naturelle de
fabriquer une intelligence: elles modélisent le raisonnement, posent un univers
de règles et d'inférences, déduisent et concluent avant d'agir. Elles
«comprennent» les problèmes qu'elles abordent, dans la mesure où elles
apprennent à les interpréter. Ces approches sont sans danger, car elles restent
entièrement traçables: nous pouvons à tout moment détecter et comprendre
pourquoi la machine a pris telle ou telle décision. Ces approches ont connu un
certain succès au début de l'IA, mais se sont révélées insuffisantes face à
certains problèmes complexes, notamment ceux visant à reconnaître des formes, à
synthétiser des informations continues, à mimer au plus près le comportement
humain.
L'approche connexionniste emploie une tout autre notion,
celle d'intelligence collective. Elle met en œuvre un très grand nombre de
petites unités simples, souvent inspirées du vivant telles que les neurones, pourvues
d'une faible intelligence individuelle, mais de capacités phénoménales
lorsqu'elles agissent en réseau. L'unité élémentaire est une cellule répondant
à des stimuli d'entrée par quelques réponses simples, qu'elle propage aux
cellules environnantes. Le réseau connexionniste n'a aucune «compréhension» de
la situation à laquelle il est confronté: il se contente de répondre à des
stimuli par d'autres stimuli.
L'approche connexionniste est l'intelligence de la
fourmilière : chaque unité est rudimentaire, mais collectivement, elle atteint
une capacité très supérieure.
Des lois très simples régissent les connexions entre les
cellules: lorsque deux d'entre elles sont excitées conjointement, leur liaison
se renforce, dans le cas contraire, leur liaison s'affaiblit. Ce réseau de
liaisons sait très mal répondre à ce qu'on lui demande d'apprendre au tout
début. Mais rapidement, en lui montrant un très grand nombre d'exemples de
réponses qu'il doit associer aux données qu'il reçoit, il se renforce
constamment en pertinence et en précision, jusqu'à obtenir une efficacité sans
égale.
L'approche connexionniste est l'intelligence de la
fourmilière: chaque unité est rudimentaire, mais collectivement, elle atteint
une capacité très supérieure à la somme des capacités individuelles de ses
membres. Les sciences cognitives expliquent encore mal comment un réseau de
cellules simples obéissant à quelques lois de renforcement de leurs liaisons
peut arriver à s'adapter et à résoudre les problèmes les plus complexes. Elles
parlent de «qualités émergentes», «d'auto organisation», mais plus pour en
constater l'efficacité que la prouver.
Caractéristique gênante, les approches connexionnistes sont
quasiment intraçables, contrairement aux approches cognitivistes. Il n'est plus
possible d'expliquer simplement pourquoi le réseau a pris telle ou telle
décision, le résultat étant noyé dans un jeu d'innombrables pondérations
croisées dont on ne peut retrouver le fil. Une approche purement connexionniste
est pour cette raison non admissible dans une voiture autonome. Des tentatives
ont été faites de reconstituer le «raisonnement» du réseau, mais elles sont
encore peu convaincantes.
Le danger ne viendra pas d'un cyborg tueur, mais de millions
de petites cellules intelligentes, agissant en réseau, s'auto-renforçant et
évoluant en permanence jusqu'à la mutation.
Cet élément technique acquis, nous pouvons comprendre que le
danger ne viendra pas d'un cyborg tueur, mais de millions de petites cellules
intelligentes, agissant en réseau, s'auto-renforçant et évoluant en permanence
jusqu'à la mutation.
La puissance de l'intelligence répartie est d'autant plus
redoutable qu'elle est disséminée. Et la dissémination suprême consiste
évidemment à être répartie partout sur le Web. Une interview de Musk et de Sam
Altman, responsable de l'un des principaux incubateurs de la Valley, est plus
qu'explicite: la question n'est pas celle du robot, qui n'est qu'un ensemble de
capteurs et d'actionneurs, mais des algorithmes se trouvant sur le Web, selon
les propres termes de Musk.
L'IA redoutable est immatérielle: pas de manchette d'acier
ou de rayon fatal comme le veulent les séries B de science-fiction, mais des
millions de petits logiciels répartis, peu intelligents en eux-mêmes mais
agissant en réseau de façon coordonnée, parvenant à une maîtrise collective
stupéfiante mais non traçable et sans qu'une entité en particulier ne soit
responsable.
Quels pourraient être ces dangers d'une telle IA répartie?
Nous savons déjà que des algorithmes complexes flairent nos moindres goûts et
centres d'intérêt pour nous présenter des propositions alléchantes à chaque
détour d'un site de commerce en ligne. L'anticipation de nos désirs par
recoupement d'informations atteint parfois une précision si confondante qu'elle
est inquiétante.
Étendons cette compréhension fine à d'autres domaines. La
tarification de tous les services auxquels nous souscrivons peut-être rendue
totalement variable, ajustable en temps réel. Irréaliste? C'est pourtant le cas
de nos billets de train, dont le prix varie très fortement en fonction du
moment. La tarification variable possède une justification très rationnelle,
celle d'optimiser les pics de charge d'utilisation du service, en incitant à se
présenter aux heures creuses. Ceci conduisit Uber à demander des tarifs
exorbitants lors des attentats de Londres, simplement parce que l'algorithme
calculait que les taxis devenaient une denrée rare et que l'on pouvait profiter
de ce nouvel ajustement de l'offre et de la demande… Les algorithmes n'avaient
aucune éthique vis-à-vis de la détresse dans laquelle se trouvaient les
passants, l'optimisation du mieux-disant étant leur seule logique.
Si les services deviennent ainsi ajustables, changeant leurs
tarifs sans prévenir et sans aucune notion d'engagement, pourquoi ne pas
étendre de tels principes au droit du travail? Des algorithmes répartis
mondialement compareraient en permanence les salaires, taux de disponibilité et
productivité de chacun, et ajusteraient un contrat de travail instantané en
permanence. La flexibilité parfaite, justifiée par le fait qu'ainsi chacun
serait payé exactement à sa juste valeur, instantanément remplaçable si
l'opportunité le permet. Nul souci dans cette belle optimisation, de la
précarité qui interdirait tout projet personnel ni du long terme nécessaire au
développement d'un être humain.
L'on ne pourrait confier ainsi notre avenir à un tel système
de calcul? Nous venons pourtant de vivre une affectation des bacheliers dans
les universités selon un algorithme de tirage aléatoire, soumettant les destins
personnels de milliers d'étudiants au résultat arbitraire d'un algorithme.
Celui-ci ne comportait pas d'IA, mais précisément imaginons son usage dans des
cas touchant à nos études ou notre emploi: la décision est indétectable, non
reconstituable, et sans responsable identifié car disséminée dans les
interactions de milliers de modules coopératifs. Restera l'argument massue de
considérer qu'il ne peut s'agir que de la décision la plus optimisée, donc ne
souffrant aucune discussion.
Le droit du travail étant attaqué, pourquoi ne pas élargir
le champ au droit tout court? Impossible? Le cabinet d'avocats BakerHostetler
emploie depuis 2016 Ross, une IA fondée sur une technologie d'IBM effectuant en
quelques secondes l'équivalent de milliers d'heures de travail de recherche
dans les textes par des avocats humains. Les cols blancs ne sont pas plus
épargnés par les menaces que l'IA fait planer sur leur emploi, avec une
ubérisation de la profession d'avocat désormais en marche.
La logique du mieux disant qui est la seule loi des réseaux
connexionnistes pourrait aboutir à des dérapages très dangereux dans le domaine
du droit. Nos sociétés postmodernes ont de plus en plus tendance à relâcher
l'universalité de la loi pour céder à son adaptation régionale voire à son
complet morcellement selon les villes et quartiers. L'on voit ainsi
régulièrement des élus nous expliquer que l'interdiction des femmes dans les
cafés, l'observance d'interdits alimentaires religieux ou l'imposition de
certaines relations hommes / femmes doit faire l'objet d'une adaptation au cas
par cas.
La logique d'intelligence répartie répond à la
décentralisation complète de nos règles, autorisant toutes les compromissions
locales à partir du moment où elles sont rentables.
Les motivations de telles démissions sont connues: il s'agit
d'une optimisation électorale, une suradaptation à la réalité locale de chaque
quartier pour engranger le maximum de voix. Quelle tentation que celle d'un
algorithme qui calculerait en permanence les adaptations de la loi en fonction
des rapports de force locaux, assurant une paix fondée sur la flexibilité aux
revendications des plus majoritaires localement et permettant une maximisation
des chances électorales. La logique d'intelligence répartie répond à la
décentralisation complète de nos règles, autorisant toutes les compromissions
locales à partir du moment où elles sont rentables, économiquement comme
électoralement.
Il ne faut pas penser que le monde matériel serait épargné,
parce que c'est par le seul biais de morceaux de logiciels que l'IA agit.
L'internet des objets remplace la puissance de calcul centralisée dans un PC
par des dizaines de petits objets communicants, plus spécialisés et moins
puissants qu'un ordinateur, mais agissant de façon redoutablement coordonnée
pour gérer notre maison. Étendus au-delà de notre domicile, nous serons
environnés de milliers de tels petits objets, interagissant en permanence pour
recréer des logiques de réseaux disséminés. Mais qui dit dissémination dit
faille: une cyberattaque récente s'est attaquée à des milliers de caméras de
surveillance, beaucoup plus difficiles à toutes contrôler et protéger, pour
investir des sites internet mondialement fréquentés.
L'étape ultime intervient lorsque la frontière entre le
numérique et le vivant se met à céder. Elon Musk affirme que nous sommes déjà
des cyborgs, les smartphones et autres objets connectés étant devenus des
prothèses prolongeant l'usage de nos membres et de nos sens. Des connexions
directes de l'influx nerveux vers nos smartphones sont envisagées, faisant des
objets connectés des membres de notre corps à part entière. Enfin, des
«nano-bots», robots microscopiques, pourraient être injectés dans notre flux
sanguin. Individuellement capables d'opérations très limitées, leur organisation
en réseau permettrait d'accomplir des tâches médicales de haute volée. Mais
pour cette application de l'intelligence disséminée comme pour d'autres, que se
passe-t-il si elle développe sa propre logique par auto-organisation, échappant
à la nôtre?
Le jour où la terre s'arrêta et la mémoire d'Athènes
Le danger réel de l'IA et sa résonance troublante avec la
dérégulation moderne apparaissent de manière frappante dans les deux versions
du film de SF «Le jour où la terre s'arrêta», dans son ancienne version de 1951
et dans celle moderne de 2008. L'extraterrestre chargé de mettre en garde les
terriens contre leur prochaine destruction est accompagné d'un robot garde du
corps, Gort. Dans la version de 1951, Gort est représenté sous une forme
humanoïde compacte et unie, capable de terrasser un adversaire par sa force
mécanique ou un rayon émis par une fente oculaire. Il représente le fantasme du
cyborg tueur, longtemps populaire, mais dont nous venons de comprendre qu'il
n'est pas le vrai danger. Le Gort de la version de 2008, accompagnant Keanu
Reeves, est capable de se dissocier en une multitude innombrable de petits
insectes mécaniques, pouvant se reproduire, se déplaçant comme une nuée tueuse.
La puissance collective de cet essaim est bien plus redoutable que celle du
robot de 1951, car elle accomplit à elle seule la tâche de destruction de la
terre.
La nouvelle version du film a bien ressenti notre évolution
postmoderne. Les menaces ne sont plus un adversaire identifiable et massif,
comme l'étaient les totalitarismes classiques. Elles sont fluides, adaptables,
se dispersant à tous vents si l'on cherche à les pilonner, se resserrant comme
les anneaux d'un python dans une étreinte implacable dès que l'opportunité se
présente. Les réactions des marchés financiers à la moindre velléité d'ouvrir
d'autres politiques ont cette fluidité des systèmes disséminés et coordonnés en
réseau.
Telle est l'IA moderne, amplificateur inouï des dévoiements
du libéralisme, car procédant du même principe de suradaptation aux plus petits
équilibres locaux et de poursuite d'objectifs qui n'ont plus d'autre règle
qu'eux-mêmes. Les humains déjà variables d'ajustement économiques deviendraient
les animaux de compagnie des processus de l'IA, tolérés tant qu'ils
n'introduisent pas trop d'impuretés dans l'optimisation d'ensemble, rayés d'un
trait de crayon numérique plus implacable encore que celui des actionnaires
s'ils s'opposent à la marche de l'optimalité.
La parade à ces nuées ardentes? Il faut s'attacher à
l'universalité de la loi, rester dans ce domaine irréductiblement athénien,
refuser les compromissions de l'adaptation instinctive et opportuniste qui
dissout les hommes et l'éthique.
Le danger n'est pas technologique, il est dans le fait que
ces intelligences non humaines nous renvoient à notre propre déshumanisation.
La rédaction vous conseille
Laurent Alexandre: «Bienvenue à Gattaca deviendra la norme»
L'homme augmenté, fantasme d'un monde qui rêve d'abolir la
mort... de quelques privilégiés
« Je ne suis pas inquiet de voir un Terminator rentrer chez moi dans un court délai » s'amuse Grégory Renard, professeur de mathématiques et patron de Xbrain. Sa start-up a conçu un ordinateur de bord intelligent pour les voitures comme sur la célèbre Tesla.
Nous avons rencontré ce spécialiste français de l'Intelligence artificielle sur le campus de l'université Stanford (Californie) où des petits génies imaginent le futur. Mais tout ne se passe pas pour une fois dans la Silicon Valley. La France et son école de Mathématiques reconnue ont une belle carte à jouer sur ce nouveau marché porteur où les Etats-Unis et la Chine fourbissent leurs algorithmes. Entretien avec un expert installé aux Etats-Unis depuis 5 ans.
Cela passe par exemple par la classification d’images et l’ordinateur peut distinguer un chat d’un chien après lui avoir soumis suffisamment d’images pour qu’il apprenne. C’est ce qu’on appelle le « machine learning » ou le « deep learning ».
Intelligence artificielle : pourquoi Terminator et Skynet
ne sont pas pour demain (05.07.2017)
>High-Tech|Propos
recueillis par Damien Licata Caruso à Stanford (Californie)|05 juillet 2017,
12h30 | MAJ : 05 juillet 2017, 12h36|2
Illustration. Le robot Acroban developpé par l'INRIA
(Institut national de recherche en informatique et en automatique) le 24 mars
2011 à Lyon.
(AFP/PHILIPPE MERLE)
Propos recueillis par Damien Licata Caruso à Stanford
(Californie)
Des voitures autonomes aux robots industriels, l'IA
s'invite dans notre quotidien mais la réalité sur cette
innovation est loin des clichés hollywoodiens. Démythification avec un expert
français installé dans la Silicon Valley
Dans la saga «Terminator», l'intelligence artificielle
Skynet prend le contrôle de l'arsenal nucléaire américain, détruit la planète
et seuls les androïdes et quelques humains survivent à l'horizon 2029. Faut-il
craindre un tel scénario ? Oui, les robots de Google fonctionnent avec une certaine autonomie et
les voitures se garent toutes seules mais le robot indépendant qui se rebelle contre
son créateur devrait encore rester de la science-fiction pendant quelques
décennies.
« Je ne suis pas inquiet de voir un Terminator rentrer chez moi dans un court délai » s'amuse Grégory Renard, professeur de mathématiques et patron de Xbrain. Sa start-up a conçu un ordinateur de bord intelligent pour les voitures comme sur la célèbre Tesla.
Nous avons rencontré ce spécialiste français de l'Intelligence artificielle sur le campus de l'université Stanford (Californie) où des petits génies imaginent le futur. Mais tout ne se passe pas pour une fois dans la Silicon Valley. La France et son école de Mathématiques reconnue ont une belle carte à jouer sur ce nouveau marché porteur où les Etats-Unis et la Chine fourbissent leurs algorithmes. Entretien avec un expert installé aux Etats-Unis depuis 5 ans.
Qu’est-ce que c’est l’intelligence artificielle (IA) en
2017 ?
Grégory Renard. Il y a deux approches, l’une est
hollywoodienne et intéressante car elle montre là où on va avec des films
plausibles comme « Her » (ndlr : où une assistante personnelle virtuelle
accompagne le personnage principal dans son quotidien). Sinon plus réaliste,
l’intelligence artificielle est essentiellement concentrée sur le « big data »
et le traitement de millions de données.
Cela passe par exemple par la classification d’images et l’ordinateur peut distinguer un chat d’un chien après lui avoir soumis suffisamment d’images pour qu’il apprenne. C’est ce qu’on appelle le « machine learning » ou le « deep learning ».
Quels sont les enjeux actuels pour l’IA ?
L’un des enjeux est la vitesse à laquelle elle se déploie,
grandit et s’améliore. Cela passe par une amélioration des algorithmes qui
traitent de plus en plus de données. Il faut s’attendre à une profonde
évolution des métiers. Comme le dit le professeur de Stanford, Andrew Ng, l’IA
est comme l’électricité et va engendrer la même rupture que l’électricité a pu
créer par le passé. Il n’y aura pas un métier qui sera épargné sur les deux
prochaines décennies.
Dans l’imaginaire collectif, il y a à la fois la peur du
Terminator mais aussi la perspective de destructions d’emplois. Que répondre à
cette crainte ?
C’est comme pour la voiture et le moteur à énergie fossile
qui étaient dénoncés pour leur dangerosité. Tout le monde l’utilise
aujourd’hui. Comme toute technologie qui provoque des changements majeurs, il y
a trois étapes. Tout d’abord, l’incrédulité, ensuite vient la peur de la
destruction et enfin la reconnaissance de la logique de cette évolution.
D’habitude, cela s’étale sur plusieurs décennies mais cela va cette fois
beaucoup plus vite.
Quelle place la France pourrait-elle prendre sur
l’échiquier mondial de l’intelligence artificielle ?
La France peut prendre une place majeure. Il faut que le
pays embrasse cette opportunité car la communauté de l’IA dans la Silicon
Valley est majoritairement française et francophone. Parce que nous formons
très bien aux matières nécessaires dans ce domaine comme les mathématiques. La
France doit être un exemple au niveau européen et mondial car elle peut
promouvoir une IA éthique.
L’enjeu est aussi de ne pas laisser le monopole aux Gafa
(Google, Amazon, Facebook et Apple) et à un usage commercial…
Tout le monde devrait pouvoir y accéder comme pour
l’électricité. Je n’ai pas de jugement sur les Gafa car des personnes comme le
Français Yann Le Cun chez Facebook vont faire avancer la technologie. Ce sont
des ingénieurs qui tentent de résoudre un problème et popularisent ensuite
leurs innovations. Il faut encourager cette évolution.
Le gouvernement y pense aussi
Dans son discours de politique générale à l'Assemblée mardi,
le Premier ministre a souligné l'importance d'une stratégie française. « La
révolution de l’intelligence artificielle est devant nous, elle est en vérité
déjà là et elle nous touchera tous, dans tous les domaines de la production.
Ceux qui font mine de l’ignorer seront les premiers saisis par sa puissance.
Nous devons nous y préparer pour en faire une chance disruptive et non la subir
comme une fatalité destructive» a tonné le pensionnaire de Matignon.
Et de dessiner une politique d'accompagnement : « Le
secrétaire d’Etat au Numérique, Mounir Mahjoubi, me proposera dans les trois
mois une méthode permettant d’associer les meilleurs spécialistes de ce domaine
à la définition d’une stratégie nationale pour l’intelligence artificielle. »
Aucun commentaire:
Enregistrer un commentaire
Aidez-moi à améliorer l'article par vos remarques, critiques, suggestions... Merci beaucoup.