14 juillet 2017

Intelligence artificielle

Les géants de la tech s'opposent aux robots tueurs (21.08.2017)
Intelligence artificielle, du fantasme à la réalité (23.07.2017)
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)
Intelligence artificielle : pourquoi Terminator et Skynet ne sont pas pour demain (05.07.2017)

Les géants de la tech s'opposent aux robots tueurs (21.08.2017)

Par Elisa Braun
Publié le 21/08/2017 à 21h28
Elon Musk et 115 experts de l'intelligence artificielle alertent l'ONU dans une lettre ouverte.

Ils se sentent tenus de «tirer le signal d'alarme». Cent seize responsables d'entreprises de robotique et spécialistes de l'intelligence artificielle ont écrit une lettre ouverte aux Nations unies afin de mettre en garde contre les dangers des armes autonomes et «robots tueurs», que leurs avancées technologiques permettent de développer. Ils redoutent ainsi «des conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles à concevoir pour les humains», dans un courrier diffusé dimanche par le Future of Life Institute, organisme non lucratif basé aux États-Unis et qui met régulièrement en garde contre les dévoiements possibles des technologies.

Outre Elon Musk, le patron milliardaire de Tesla et SpaceX, la lettre est aussi portée par la voix de Mustafa Suleyman, fondateur de la société d'intelligence artificielle DeepMind, détenue par Google, ainsi que cinq dirigeants français, parmi lesquels les fondateurs de Snips et Heuritech.

«Je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine» 
Stephen Hawking , astrophysicien

Cette initiative survient à point alors que s'ouvre la Conférence internationale conjointe sur l'intelligence artificielle (IJCAI), grand-messe annuelle du secteur, qui rassemble 2000 experts à Melbourne ce 21 août. En 2015, plusieurs milliers de chercheurs et personnalités comme l'astrophysicien Stephen Hawking y avaient lancé un appel pour l'interdiction stricte des «armes offensives autonomes». «Je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine», avait affirmé le scientifique.

Alors que les avancées technologiques en intelligence artificielle suivent un rythme soutenu, ces experts s'inquiètent du temps d'adaptation du législateur. L'ONU se penche en effet depuis 2013 sur les armes autonomes et a récemment voté en faveur de discussions plus formelles au sujet des robots tueurs, des drones, chars et mitrailleuses automatisés.

« Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer »
Les 116 signataires

Des réunions en ce sens devaient avoir lieu à partir de lundi à Genève, mais ont finalement été reportées à novembre. Plusieurs experts, dont Elon Musk, considèrent pourtant que le développement de robots tueurs n'est plus une question de décennies mais d'années. La Russie, les États-Unis et d'autres pays développent actuellement des robots activables à distance ou autonomes. Plusieurs pays, comme le Royaume-Uni ou la France, développent des prototypes d'armes autonomes. Le secteur privé n'est pas en reste: la firme américaine Boston Dynamics, spécialiste des robots androïdes capables d'intervenir sur champs de bataille, vient quant à elle d'obtenir le soutien de SoftBank, l'un des plus importants fonds d'investissement mondiaux.

«Nous n'avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer», alertent les 116 signataires. D'autant que la probabilité de conflit augmente dès lors que des robots sont impliqués, défend Mary-Anne Williams, professeur à l'Université de technologie de Sydney. Le risque d'utilisation de ces armes à des fins dictatoriales ou terroristes ainsi qu'un risque de piratage sont également pointés du doigt.

La rédaction vous conseille :



Intelligence artificielle, du fantasme à la réalité (23.07.2017)

http://lefigaro.fr/secteur/high-tech/2017/07/23/32001-20170723ARTFIG00169-intelligence-artificielle-du-fantasme-a-la-realite.php



Publié le 23/07/2017 à 21h29

INTELLIGENCE ARTIFICIELLE (1/6) - Conçue en 1956 par des chercheurs géniaux, l'IA n'en est encore qu'à ses premiers pas. Mais elle fait déjà peur.

Que vous discutiez avec la SNCF via un chatbot, triiez vos photos sur Facebook, traduisiez un auteur bulgare en français ou que vous preniez place dans une voiture autonome, vous commencez à vous habituer à vivre aux côtés de machines animées d'une intelligence artificielle (IA). Depuis cinq ans, ce vieux fantasme est devenu «le» sujet à la mode. Une mode qui a pourtant… soixante ans. Ce concept est né en août 1956 dans les locaux du Dartmouth College (New Hampshire).

Quatre chercheurs trentenaires, John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon, invitent alors les plus brillants esprits de leur temps à plancher sur une lubie: créer une machine douée de langage, capable de former des concepts et des abstractions et de résoudre des problèmes que seul l'homme est apte à traiter. Ils s'inscrivent dans les pas du génial Alan Turing, décrypteur de la machine Enigmaqui s'est suicidé en 1954. Après des dizaines d'années de recherches protéiformes et d'avancées dans certains domaines comme la robotique ou la reconnaissance vocale, les résultats se sont avérés décevants. À tel point que la plupart des recherches ont été abandonnées et que l'IA a traversé un véritable hiver. Même si, en 1997, Deep Blue, la machine d'IBM, humilie le champion du monde des échecs Garri Kasparov et que, treize ans plus tard, sa petite sœur Watson gagne le jeu «Questions pour un champion», on est loin du but. Ces machines surpuissantes apprennent vite et calculent bien. Mais elles ne sont pas intelligentes.

Deux écoles s'affrontent

Il faut attendre 2012 pour qu'une étincelle jaillisse dans la nuit. Grâce à la disponibilité conjuguée de nouveaux processeurs graphiques (GPU) et de vastes bases de données, les travaux sur les réseaux de neurones des chercheurs Yann LeCun et Geoffrey Hinton prennent enfin corps. Ces réseaux imitent le processus des synapses dans le cerveau. Le Deep Learning («apprentissage profond») voit le jour. Il est déjà très répandu et les géants d'Internet Facebook, Google, IBM, Amazon ou Tencent investissent massivement. Facebok a recruté Yann LeCun pour diriger son laboratoire, et Geoffrey Hinton dirige celui de Google. La machine est capable d'apprendre par elle-même. Si on l'entraîne à traduire l'anglais en russe et le russe en japonais, elle traduira d'elle-même l'anglais en japonais. Après avoir visionné des millions d'images de bouteilles, elle en reconnaît une sur une photo. Mais si cette dernière est posée en déséquilibre sur une table, elle ne pourra pas anticiper sa chute. Ce qui paraît pourtant évident à n'importe qui.
Un enfant comprend vite que lorsque sa maman se cache derrière un rideau, elle existe toujours. La machine non. «Il lui manque encore le sens commun», assure Yann LeCun. Aujourd'hui, deux écoles s'affrontent. Les transhumanistes pensent qu'en multipliant la puissance de calcul et la masse des données, le Deep Learning égalera l'intelligence humaine. D'autres commencent à penser que cela mènera à une impasse. Il va falloir explorer de nombreuses voies pour que la machine saisisse les émotions, la sémantique ou le contexte qu'un homme utilise pour interpréter le «non dit» ou le «non montré». Dans un futur proche, la machine pourra remplir de nombreuses tâches complexes et calculer la probabilité d'événements. Mais elle ne pourra toujours pas imiter le dialogue plein de tendresse entre un enfant et sa maman, saisir les ressorts humains comme l'a fait Shakespeare ou affirmer que «Dieu est mort».

En attendant, les chercheurs plaident pour donner une éthique à ces machines. Car déjà elles utilisent des chemins détournés pour résoudre une tâche. Il faut absolument garder le contrôle sur tout le processus de décision pour éviter le phénomène des «boîtes noires». Enfin, les réseaux neuronaux sont aujourd'hui entraînés par des chercheurs majoritairement occidentaux, adultes et très éduqués. Ce que les machines apprennent dépend de ce qu'on leur enseigne. On est loin d'une intelligence universelle.

La rédaction vous conseille :



Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations (20.07.2017)


Par Marc Rameaux Mis à jour le 20/07/2017 à 17:58 Publié le 20/07/2017 à 16:12
Intelligence artificielle : quand Elon Musk s'alarme de ses propres créations

FIGAROVOX/TRIBUNE - « L'Intelligence artificielle constitue un risque majeur pour la civilisation » a récemment déclaré Elon Musk, PDG notamment de Neuralink, start-up dont l'objectif est d'ajouter au cerveau humain une part d'intelligence artificielle. Marc Rameaux analyse la dérégulation transhumaniste qui nous guette.

Marc Rameaux est Directeur de projet dans une grande entreprise industrielle. Il est l'auteur de Portrait de l'homme moderne. Vous pouvez également retrouver ses chroniques sur son blog: Le troisième homme

«L'Intelligence artificielle constitue un risque majeur pour la civilisation». Ainsi s'exprimait Elon Musk samedi dernier, lors du séminaire d'été de l'US National Governors Association à Rhode Island. Le patron de Tesla en appelle à la mise en place urgente d'une régulation sur les technologies d'IA, craignant qu'elles ne dépassent l'homme dans tous les domaines et déstabilisent gravement la société.
L'avertissement de Musk peut faire sourire à deux titres. En premier lieu, ne fait-il pas partie des NATU, acronyme complémentaire des GAFA, qui agrège Netflix, Airbnb, Tesla et Uber? Or, les NATU sont une surenchère dans la voracité des champions technologiques, faisant passer les GAFA pour des enfants de chœur.
Les GAFA ont été capables de piétiner la propriété intellectuelle par des projets de numérisation massive, de violer la confidentialité de nos données personnelles et de les commercialiser auprès de tiers inconnus, enfin de s'affranchir de toute loi fiscale ou régulatrice. Les NATU franchissent un cran supplémentaire dans la dérégulation dévastatrice, par une précarisation croissante de leurs salariés, des pratiques commerciales relevant du dumping ou de la spéculation immobilière, des clauses d'utilisation de leurs produits ne protégeant plus leurs clients ou pouvant être modifiées sans leur avis.
Les déclarations fracassantes de Musk (il n'en est pas à sa première concernant l'IA) semblent plus relever de la publicité en faveur de ses marques que de la préoccupation humaniste.
La puissance et l'extra-territorialité des transactions du Web rendent leur contrôle quasi impossible. L'on peut donc s'amuser de voir l'un des piliers des NATU en appeler à davantage de régulation.
L'autre point d'ironie est que les déclarations fracassantes de Musk - il n'en est pas à sa première concernant l'IA - semblent plus relever de la publicité en faveur de ses marques que de la préoccupation humaniste. La prise de contrôle de nos sociétés par les machines reste une préoccupation mineure comparée aux dangers de la surpopulation, de l'inégalité des revenus ou de la montée des fondamentalismes.
Faut-il donc répondre à cet appel par un haussement d'épaules? Non, car au-delà de l'aspect effrayant et caricatural des NATU, comprendre la Valley et les leçons que nous devrions en tirer, c'est aussi comprendre un entrepreneur tel que Musk. S'il faut s'inquiéter d'une course à l'innovation qui prépare le terrain de la course à la dérégulation, l'argument du grand méchant loup à l'encontre des NATU et GAFA relève de l'infantilisme.
La Valley regorge de ces personnalités paradoxales, que certains dénoncent comme de jeunes vampires prêts à tout pour être reconnus et que d'autres encensent comme des visionnaires animés de réels buts philanthropiques. Ce que l'on ne voit pas est que ces deux facettes sont également vraies, et qu'une personnalité comme Musk en est l'une des meilleures incarnations.
Si les visions d'Elon Musk ont souvent paru souligner les extravagances de la Valley, elles se sont avérées profondes avec le temps et le patron de Tesla mérite en cela le respect. Ce qu'il souligne concernant l'IA ne fait pas exception: il détecte un danger d'autant plus critique qu'il est peu apparent. La menace de l'IA ne se trouve pas là où nous le pensons.
La peur d'une machine qui gagne son autonomie est plus ancienne que l'IA
Les dangers de l'IA ont été perçus bien à l'avance par l'imagination humaine, y compris avant même que l'IA n'existe concrètement. De HAL, l'ordinateur fou de 2001 l'odyssée de l'espace, à Ultron en passant par Terminator, l'idée d'une intelligence capable de comprendre, décider et agir au moins aussi bien qu'un être humain, pour s'émanciper de celui-ci jusqu'à décider de l'éliminer, a alimenté les meilleurs auteurs d'œuvres fantastiques.
C'est un auteur français qui a perçu le plus en avance ces questions. En plein XIXème siècle, Villiers de L'Isle-Adam écrivait «L'Ève future», imaginant une Andréide créée par Edison, pour se substituer à la femme aimée d'un jeune lord Anglais. L'auteur français anticipe ces sordides poupées d'amour que la technologie met à présent sur le marché dans des versions de plus en plus perfectionnées et pousse le génie jusqu'à mettre en scène un véritable test de Turing que son andréide réussit, des décennies avant que le logicien anglais n'en définisse le protocole.
Le thème du cyborg tueur ou trompeur apparut presque aussi rapidement que la fabrication des premiers automates. Parfois le rapport est inversé, l'être artificiel nous renvoyant à notre inhumanité et notre indifférence postmoderne, tels les répliquants de Blade Runner ou le petit garçon robot aimant désespérément sa maman de chair et de sang dans l'AI de Spielberg: dans ce cas, les êtres fabriqués se révèlent plus empathiques qu'une humanité dévastée par la poursuite de ses buts égoïstes.
Une intelligence artificielle est finalisée dans un certain but, dont elle optimisera l'atteinte avec une efficacité supérieure à la nôtre. Si la machine est dotée d'autonomie, elle peut arriver à la conclusion que le peu de fiabilité des humains est un obstacle au but pour lequel elle est programmée. L'humain devra alors être éliminé comme une scorie gênante, au mieux toléré en exigeant de lui une adaptabilité croissante aux besoins du processus. Le concepteur humain prévoit bien sûr un bouton de mise à l'arrêt. Mais le problème advient lorsque nos machines pensantes acquièrent une autonomie telle que l'idée leur vient de supprimer le bouton…
La notion de robot tueur ne relève pas de la prospective lointaine, elle est déjà une réalité.
La notion de robot tueur ne relève pas de la prospective lointaine, elle est déjà une réalité. Les interventions militaires de drones, ont déjà fait des centaines de victimes civiles. En avril 2015, deux otages d'Al-Qaïda membres d'une ONG furent tués par un drone à la frontière pakistano-afghane, obligeant Barack Obama à une reconnaissance publique de l'erreur et à une indemnisation des familles des victimes.
Dans le développement des voitures autonomes, des questions éthiques se posent si dans une situation très critique, la voiture robot n'a plus le choix qu'entre de mauvaises solutions mettant la vie humaine en danger. Il devra alors prendre la décision de savoir qui sera sacrifié, de la vieille dame qui traverse, de l'enfant se trouvant de l'autre côté du passage piéton, de l'homme qui conduit la voiture adjacente, ou de son propre passager humain.
La nécessité d'une régulation du comportement des robots apparut presque aussi vite que son invention: les trois lois d'Asimov sont devenues une réalité plus que tangible avec les 23 principes d'Asilomar édictés en janvier 2017, soutenus par plus de 2000 signataires parmi les meilleurs scientifiques et industriels du domaine, dont Elon Musk et Stephen Hawking. Ces règles sont destinées à doter la recherche en IA d'un surmoi, un rappel des buts humains pour lesquels elle a été conçue initialement.
L'étrange résonance entre IA en réseau et dérégulation économique
Pourquoi Elon Musk perpétue-t-il donc cette inquiétude, quant à une technologie qui semble être en bonne voie de régulation? Parce qu'il a très bien perçu qu'au-delà des intentions, nous pourrions perdre le contrôle des machines pensantes de la même façon et pour les mêmes raisons que nous perdons le contrôle des régulations économiques. Nous allons le voir, l'IA est en quelque sorte une extension surpuissante prolongeant le libéralisme économique, pouvant en amplifier les effets non contrôlés dans des proportions inconcevables.
Pour comprendre ce nouveau danger, nous devons introduire une brève distinction technique. L'IA emploie des méthodes assez variées, pouvant se ramener cependant à deux grandes catégories: les approches «cognitivistes» et «connexionnistes».
Les premières correspondent à la tentative naturelle de fabriquer une intelligence: elles modélisent le raisonnement, posent un univers de règles et d'inférences, déduisent et concluent avant d'agir. Elles «comprennent» les problèmes qu'elles abordent, dans la mesure où elles apprennent à les interpréter. Ces approches sont sans danger, car elles restent entièrement traçables: nous pouvons à tout moment détecter et comprendre pourquoi la machine a pris telle ou telle décision. Ces approches ont connu un certain succès au début de l'IA, mais se sont révélées insuffisantes face à certains problèmes complexes, notamment ceux visant à reconnaître des formes, à synthétiser des informations continues, à mimer au plus près le comportement humain.
L'approche connexionniste emploie une tout autre notion, celle d'intelligence collective. Elle met en œuvre un très grand nombre de petites unités simples, souvent inspirées du vivant telles que les neurones, pourvues d'une faible intelligence individuelle, mais de capacités phénoménales lorsqu'elles agissent en réseau. L'unité élémentaire est une cellule répondant à des stimuli d'entrée par quelques réponses simples, qu'elle propage aux cellules environnantes. Le réseau connexionniste n'a aucune «compréhension» de la situation à laquelle il est confronté: il se contente de répondre à des stimuli par d'autres stimuli.
L'approche connexionniste est l'intelligence de la fourmilière : chaque unité est rudimentaire, mais collectivement, elle atteint une capacité très supérieure.
Des lois très simples régissent les connexions entre les cellules: lorsque deux d'entre elles sont excitées conjointement, leur liaison se renforce, dans le cas contraire, leur liaison s'affaiblit. Ce réseau de liaisons sait très mal répondre à ce qu'on lui demande d'apprendre au tout début. Mais rapidement, en lui montrant un très grand nombre d'exemples de réponses qu'il doit associer aux données qu'il reçoit, il se renforce constamment en pertinence et en précision, jusqu'à obtenir une efficacité sans égale.
L'approche connexionniste est l'intelligence de la fourmilière: chaque unité est rudimentaire, mais collectivement, elle atteint une capacité très supérieure à la somme des capacités individuelles de ses membres. Les sciences cognitives expliquent encore mal comment un réseau de cellules simples obéissant à quelques lois de renforcement de leurs liaisons peut arriver à s'adapter et à résoudre les problèmes les plus complexes. Elles parlent de «qualités émergentes», «d'auto organisation», mais plus pour en constater l'efficacité que la prouver.
Caractéristique gênante, les approches connexionnistes sont quasiment intraçables, contrairement aux approches cognitivistes. Il n'est plus possible d'expliquer simplement pourquoi le réseau a pris telle ou telle décision, le résultat étant noyé dans un jeu d'innombrables pondérations croisées dont on ne peut retrouver le fil. Une approche purement connexionniste est pour cette raison non admissible dans une voiture autonome. Des tentatives ont été faites de reconstituer le «raisonnement» du réseau, mais elles sont encore peu convaincantes.
Le danger ne viendra pas d'un cyborg tueur, mais de millions de petites cellules intelligentes, agissant en réseau, s'auto-renforçant et évoluant en permanence jusqu'à la mutation.
Cet élément technique acquis, nous pouvons comprendre que le danger ne viendra pas d'un cyborg tueur, mais de millions de petites cellules intelligentes, agissant en réseau, s'auto-renforçant et évoluant en permanence jusqu'à la mutation.
La puissance de l'intelligence répartie est d'autant plus redoutable qu'elle est disséminée. Et la dissémination suprême consiste évidemment à être répartie partout sur le Web. Une interview de Musk et de Sam Altman, responsable de l'un des principaux incubateurs de la Valley, est plus qu'explicite: la question n'est pas celle du robot, qui n'est qu'un ensemble de capteurs et d'actionneurs, mais des algorithmes se trouvant sur le Web, selon les propres termes de Musk.
L'IA redoutable est immatérielle: pas de manchette d'acier ou de rayon fatal comme le veulent les séries B de science-fiction, mais des millions de petits logiciels répartis, peu intelligents en eux-mêmes mais agissant en réseau de façon coordonnée, parvenant à une maîtrise collective stupéfiante mais non traçable et sans qu'une entité en particulier ne soit responsable.
Quels pourraient être ces dangers d'une telle IA répartie? Nous savons déjà que des algorithmes complexes flairent nos moindres goûts et centres d'intérêt pour nous présenter des propositions alléchantes à chaque détour d'un site de commerce en ligne. L'anticipation de nos désirs par recoupement d'informations atteint parfois une précision si confondante qu'elle est inquiétante.
Étendons cette compréhension fine à d'autres domaines. La tarification de tous les services auxquels nous souscrivons peut-être rendue totalement variable, ajustable en temps réel. Irréaliste? C'est pourtant le cas de nos billets de train, dont le prix varie très fortement en fonction du moment. La tarification variable possède une justification très rationnelle, celle d'optimiser les pics de charge d'utilisation du service, en incitant à se présenter aux heures creuses. Ceci conduisit Uber à demander des tarifs exorbitants lors des attentats de Londres, simplement parce que l'algorithme calculait que les taxis devenaient une denrée rare et que l'on pouvait profiter de ce nouvel ajustement de l'offre et de la demande… Les algorithmes n'avaient aucune éthique vis-à-vis de la détresse dans laquelle se trouvaient les passants, l'optimisation du mieux-disant étant leur seule logique.
Si les services deviennent ainsi ajustables, changeant leurs tarifs sans prévenir et sans aucune notion d'engagement, pourquoi ne pas étendre de tels principes au droit du travail? Des algorithmes répartis mondialement compareraient en permanence les salaires, taux de disponibilité et productivité de chacun, et ajusteraient un contrat de travail instantané en permanence. La flexibilité parfaite, justifiée par le fait qu'ainsi chacun serait payé exactement à sa juste valeur, instantanément remplaçable si l'opportunité le permet. Nul souci dans cette belle optimisation, de la précarité qui interdirait tout projet personnel ni du long terme nécessaire au développement d'un être humain.
L'on ne pourrait confier ainsi notre avenir à un tel système de calcul? Nous venons pourtant de vivre une affectation des bacheliers dans les universités selon un algorithme de tirage aléatoire, soumettant les destins personnels de milliers d'étudiants au résultat arbitraire d'un algorithme. Celui-ci ne comportait pas d'IA, mais précisément imaginons son usage dans des cas touchant à nos études ou notre emploi: la décision est indétectable, non reconstituable, et sans responsable identifié car disséminée dans les interactions de milliers de modules coopératifs. Restera l'argument massue de considérer qu'il ne peut s'agir que de la décision la plus optimisée, donc ne souffrant aucune discussion.
Le droit du travail étant attaqué, pourquoi ne pas élargir le champ au droit tout court? Impossible? Le cabinet d'avocats BakerHostetler emploie depuis 2016 Ross, une IA fondée sur une technologie d'IBM effectuant en quelques secondes l'équivalent de milliers d'heures de travail de recherche dans les textes par des avocats humains. Les cols blancs ne sont pas plus épargnés par les menaces que l'IA fait planer sur leur emploi, avec une ubérisation de la profession d'avocat désormais en marche.
La logique du mieux disant qui est la seule loi des réseaux connexionnistes pourrait aboutir à des dérapages très dangereux dans le domaine du droit. Nos sociétés postmodernes ont de plus en plus tendance à relâcher l'universalité de la loi pour céder à son adaptation régionale voire à son complet morcellement selon les villes et quartiers. L'on voit ainsi régulièrement des élus nous expliquer que l'interdiction des femmes dans les cafés, l'observance d'interdits alimentaires religieux ou l'imposition de certaines relations hommes / femmes doit faire l'objet d'une adaptation au cas par cas.
La logique d'intelligence répartie répond à la décentralisation complète de nos règles, autorisant toutes les compromissions locales à partir du moment où elles sont rentables.
Les motivations de telles démissions sont connues: il s'agit d'une optimisation électorale, une suradaptation à la réalité locale de chaque quartier pour engranger le maximum de voix. Quelle tentation que celle d'un algorithme qui calculerait en permanence les adaptations de la loi en fonction des rapports de force locaux, assurant une paix fondée sur la flexibilité aux revendications des plus majoritaires localement et permettant une maximisation des chances électorales. La logique d'intelligence répartie répond à la décentralisation complète de nos règles, autorisant toutes les compromissions locales à partir du moment où elles sont rentables, économiquement comme électoralement.
Il ne faut pas penser que le monde matériel serait épargné, parce que c'est par le seul biais de morceaux de logiciels que l'IA agit. L'internet des objets remplace la puissance de calcul centralisée dans un PC par des dizaines de petits objets communicants, plus spécialisés et moins puissants qu'un ordinateur, mais agissant de façon redoutablement coordonnée pour gérer notre maison. Étendus au-delà de notre domicile, nous serons environnés de milliers de tels petits objets, interagissant en permanence pour recréer des logiques de réseaux disséminés. Mais qui dit dissémination dit faille: une cyberattaque récente s'est attaquée à des milliers de caméras de surveillance, beaucoup plus difficiles à toutes contrôler et protéger, pour investir des sites internet mondialement fréquentés.
L'étape ultime intervient lorsque la frontière entre le numérique et le vivant se met à céder. Elon Musk affirme que nous sommes déjà des cyborgs, les smartphones et autres objets connectés étant devenus des prothèses prolongeant l'usage de nos membres et de nos sens. Des connexions directes de l'influx nerveux vers nos smartphones sont envisagées, faisant des objets connectés des membres de notre corps à part entière. Enfin, des «nano-bots», robots microscopiques, pourraient être injectés dans notre flux sanguin. Individuellement capables d'opérations très limitées, leur organisation en réseau permettrait d'accomplir des tâches médicales de haute volée. Mais pour cette application de l'intelligence disséminée comme pour d'autres, que se passe-t-il si elle développe sa propre logique par auto-organisation, échappant à la nôtre?
Le jour où la terre s'arrêta et la mémoire d'Athènes
Le danger réel de l'IA et sa résonance troublante avec la dérégulation moderne apparaissent de manière frappante dans les deux versions du film de SF «Le jour où la terre s'arrêta», dans son ancienne version de 1951 et dans celle moderne de 2008. L'extraterrestre chargé de mettre en garde les terriens contre leur prochaine destruction est accompagné d'un robot garde du corps, Gort. Dans la version de 1951, Gort est représenté sous une forme humanoïde compacte et unie, capable de terrasser un adversaire par sa force mécanique ou un rayon émis par une fente oculaire. Il représente le fantasme du cyborg tueur, longtemps populaire, mais dont nous venons de comprendre qu'il n'est pas le vrai danger. Le Gort de la version de 2008, accompagnant Keanu Reeves, est capable de se dissocier en une multitude innombrable de petits insectes mécaniques, pouvant se reproduire, se déplaçant comme une nuée tueuse. La puissance collective de cet essaim est bien plus redoutable que celle du robot de 1951, car elle accomplit à elle seule la tâche de destruction de la terre.
La nouvelle version du film a bien ressenti notre évolution postmoderne. Les menaces ne sont plus un adversaire identifiable et massif, comme l'étaient les totalitarismes classiques. Elles sont fluides, adaptables, se dispersant à tous vents si l'on cherche à les pilonner, se resserrant comme les anneaux d'un python dans une étreinte implacable dès que l'opportunité se présente. Les réactions des marchés financiers à la moindre velléité d'ouvrir d'autres politiques ont cette fluidité des systèmes disséminés et coordonnés en réseau.
Telle est l'IA moderne, amplificateur inouï des dévoiements du libéralisme, car procédant du même principe de suradaptation aux plus petits équilibres locaux et de poursuite d'objectifs qui n'ont plus d'autre règle qu'eux-mêmes. Les humains déjà variables d'ajustement économiques deviendraient les animaux de compagnie des processus de l'IA, tolérés tant qu'ils n'introduisent pas trop d'impuretés dans l'optimisation d'ensemble, rayés d'un trait de crayon numérique plus implacable encore que celui des actionnaires s'ils s'opposent à la marche de l'optimalité.
La parade à ces nuées ardentes? Il faut s'attacher à l'universalité de la loi, rester dans ce domaine irréductiblement athénien, refuser les compromissions de l'adaptation instinctive et opportuniste qui dissout les hommes et l'éthique.
Le danger n'est pas technologique, il est dans le fait que ces intelligences non humaines nous renvoient à notre propre déshumanisation.

La rédaction vous conseille
Laurent Alexandre: «Bienvenue à Gattaca deviendra la norme»
L'homme augmenté, fantasme d'un monde qui rêve d'abolir la mort... de quelques privilégiés

Intelligence artificielle : pourquoi Terminator et Skynet ne sont pas pour demain (05.07.2017)

>High-Tech|Propos recueillis par Damien Licata Caruso à Stanford (Californie)|05 juillet 2017, 12h30 | MAJ : 05 juillet 2017, 12h36|2

Illustration. Le robot Acroban developpé par l'INRIA (Institut national de recherche en informatique et en automatique) le 24 mars 2011 à Lyon.
(AFP/PHILIPPE MERLE)
Propos recueillis par Damien Licata Caruso à Stanford (Californie)

Des voitures autonomes aux robots industriels, l'IA s'invite dans notre quotidien mais la réalité sur cette innovation est loin des clichés hollywoodiens. Démythification avec un expert français installé dans la Silicon Valley
Dans la saga «Terminator», l'intelligence artificielle Skynet prend le contrôle de l'arsenal nucléaire américain, détruit la planète et seuls les androïdes et quelques humains survivent à l'horizon 2029. Faut-il craindre un tel scénario ? Oui, les robots de Google fonctionnent avec une certaine autonomie et les voitures se garent toutes seules mais le robot indépendant qui se rebelle contre son créateur devrait encore rester de la science-fiction pendant quelques décennies.

« Je ne suis pas inquiet de voir un Terminator rentrer chez moi dans un court délai » s'amuse Grégory Renard, professeur de mathématiques et patron de Xbrain. Sa start-up a conçu un ordinateur de bord intelligent pour les voitures comme sur la célèbre Tesla.

Nous avons rencontré ce spécialiste français de l'Intelligence artificielle sur le campus de l'université Stanford (Californie) où des petits génies imaginent le futur. Mais tout ne se passe pas pour une fois dans la Silicon Valley. La France et son école de Mathématiques reconnue ont une belle carte à jouer sur ce nouveau marché porteur où les Etats-Unis et la Chine fourbissent leurs algorithmes. Entretien avec un expert installé aux Etats-Unis depuis 5 ans.

Qu’est-ce que c’est l’intelligence artificielle (IA) en 2017 ?
Grégory Renard. Il y a deux approches, l’une est hollywoodienne et intéressante car elle montre là où on va avec des films plausibles comme « Her » (ndlr : où une assistante personnelle virtuelle accompagne le personnage principal dans son quotidien). Sinon plus réaliste, l’intelligence artificielle est essentiellement concentrée sur le « big data » et le traitement de millions de données.

Cela passe par exemple par la classification d’images et l’ordinateur peut distinguer un chat d’un chien après lui avoir soumis suffisamment d’images pour qu’il apprenne. C’est ce qu’on appelle le « machine learning » ou le « deep learning ».

Quels sont les enjeux actuels pour l’IA ?
L’un des enjeux est la vitesse à laquelle elle se déploie, grandit et s’améliore. Cela passe par une amélioration des algorithmes qui traitent de plus en plus de données. Il faut s’attendre à une profonde évolution des métiers. Comme le dit le professeur de Stanford, Andrew Ng, l’IA est comme l’électricité et va engendrer la même rupture que l’électricité a pu créer par le passé. Il n’y aura pas un métier qui sera épargné sur les deux prochaines décennies. 

Dans l’imaginaire collectif, il y a à la fois la peur du Terminator mais aussi la perspective de destructions d’emplois. Que répondre à cette crainte ?
C’est comme pour la voiture et le moteur à énergie fossile qui étaient dénoncés pour leur dangerosité. Tout le monde l’utilise aujourd’hui. Comme toute technologie qui provoque des changements majeurs, il y a trois étapes. Tout d’abord, l’incrédulité, ensuite vient la peur de la destruction et enfin la reconnaissance de la logique de cette évolution. D’habitude, cela s’étale sur plusieurs décennies mais cela va cette fois beaucoup plus vite.

Quelle place la France pourrait-elle prendre sur l’échiquier mondial de l’intelligence artificielle ?
La France peut prendre une place majeure. Il faut que le pays embrasse cette opportunité car la communauté de l’IA dans la Silicon Valley est majoritairement française et francophone. Parce que nous formons très bien aux matières nécessaires dans ce domaine comme les mathématiques. La France doit être un exemple au niveau européen et mondial car elle peut promouvoir une IA éthique. 

L’enjeu est aussi de ne pas laisser le monopole aux Gafa (Google, Amazon, Facebook et Apple) et à un usage commercial…
Tout le monde devrait pouvoir y accéder comme pour l’électricité. Je n’ai pas de jugement sur les Gafa car des personnes comme le Français Yann Le Cun chez Facebook vont faire avancer la technologie. Ce sont des ingénieurs qui tentent de résoudre un problème et popularisent ensuite leurs innovations. Il faut encourager cette évolution.
 

Le gouvernement y pense aussi

Dans son discours de politique générale à l'Assemblée mardi, le Premier ministre a souligné l'importance d'une stratégie française. « La révolution de l’intelligence artificielle est devant nous, elle est en vérité déjà là et elle nous touchera tous, dans tous les domaines de la production. Ceux qui font mine de l’ignorer seront les premiers saisis par sa puissance. Nous devons nous y préparer pour en faire une chance disruptive et non la subir comme une fatalité destructive» a tonné le pensionnaire de Matignon.

Et de dessiner une politique d'accompagnement : « Le secrétaire d’Etat au Numérique, Mounir Mahjoubi, me proposera dans les trois mois une méthode permettant d’associer les meilleurs spécialistes de ce domaine à la définition d’une stratégie nationale pour l’intelligence artificielle. »







Aucun commentaire:

Enregistrer un commentaire

Aidez-moi à améliorer l'article par vos remarques, critiques, suggestions... Merci beaucoup.

Follow on Bloglovin
 

Archives (2011 à 2014)

Vous aimerez peut-être :

Related Posts Plugin for WordPress, Blogger...