Depuis quelques mois, le célèbre physicien Stephen Hawking attire l’attention sur le danger pour notre espèce que pourrait représenter l’intelligence artificielle. L’idée est familière, et au moins aussi ancienne que l’été 1816. Cependant on la trouve plus communément explorée dans les fantasmagories populaires que dans les travaux de savants austères. Non pas que le professeur Hawking soit austère d’ailleurs. Il serait même réputé comme un polisson accompli.
Pour en accroître la portée, les angoisses du physicien sont appuyées par de similaires déclarations d’Elon Musk, le fabuleux conquérant du futur. Le maître des dragons a même fait un don de 10M$ au Future of Life Institute dont Hawking et lui-même sont des membres distingués. L’objectif serait de financer la recherche sur l’IA amicale. Cette notion ambitieuse invoque la possibilité de machines sensibles à des concepts éthiques, garde-fous logiciels qui protégeraient les humains de leurs manigances, à l’instar des 3 lois d’Asimov.
Si vous ne connaissez pas les 3 lois d’Asimov, je vous en prie… partez.
Au-delà de la crainte irrationnelle de voir les machines développer un plan diabolique pour la conquête de la planète Terre, on peut se demander si notre dépendance croissante envers des systèmes automatisés ne pourrait finir par occasionner quelques funestes incidents. On cite certaines décisions boursières confiées au staccato des automates, on pense à des bugs capables de semer le désordre dans les transports ou la santé, ou même à des drones de combats susceptibles de déchaîner le feu du ciel sur une cible éthiquement discutable.
Les voitures autonomes par exemple, qui sont prédites pour les années 20, devront sans doute faire face à des situations conflictuelles fascinantes, comme celles opposant le bon sens et la règle, difficiles à résoudre avec un algorithme.
Mais la crainte manifestée ces derniers temps évoque aussi une IA consciente (j’ignorais qu’on en fut déjà là ), et fait surgir le complexe de Frankenstein, ou le créateur détruit par sa création.
N’est-il pas étonnant que l’hypothèse d’une intelligence artificielle soit si souvent envisagée sous l’angle du conflit ? Quel serait l’intérêt ou la motivation d’une IA pour nuire à l’humanité ? Si l’on considère qu’en se chamaillant pour les ressources de la planète, les humains suivent un instinct hérité des marécages du Cambrien, une conscience surgie d’un environnement où l’activité fondamentale est le traitement de l’information pourrait-elle être animée d’un autre appétit que de d’accroître ses capacités en la matière ?
Sans la Tête
20 Janvier 2015 à 16:28 Les augures étaient sombres pour le spectacle de télévision Sleepy Hollow, car sa réalisation créditait l’implication de Len Wiseman, l’homme que tous les amateurs de SF souhaiteraient pouvoir gifler pour avoir ruiné le concept de Total Recall et profané l’héritage ...
|
Smart City
14 Janvier 2015 à 14:15 L’architecte belge Vincent Callebaut a proposé au printemps 2014 et à la demande de la ville de Paris, une étude rafraîchissante sur le thème des prototypes ...
|
Lowline
6 Janvier 2015 à 12:32 Le site www.lowline.org décrit avec enthousiasme une expérience de technologie paysagère dont la nouveauté émerveille le pépiniériste avant d'un jour prochain, enchanter le citadin.
Un projet rafraîchissant, qui à l’instar de ...
|
Dans les nuages
29 Décembre 2014 à 16:29 La NASA vient inopinément de fournir l’illustration que nous sommes de bien considérables ballots.
Au 20e siècle, les expéditions russes parvenues jusqu’à la surface de Vénus n’avait pas manqué d’y observer une spectaculaire absence d’océans et de ...
|
Xplorair
12 Novembre 2014 à 18:21 Au printemps 1995, un professeur d’informatique s’emportait en présence de 5 élèves dans le cadre inattendu du module de Programmation Orienté Objet, au sujet de la circulation automobile.
- Quel scandale, disait-il, que de construire des routes ! Nos voitures devra...
|