L'#Intelligence artificielle peut-elle un jour se révéler un danger pour l'humanité, comme dans les films de science-fiction ? Ces derniers mois, plusieurs scientifiques ont exprimé leurs inquiétudes, quant au développement de l'I.A. Le célèbre physicien Stephen Hawking, connu notamment pour ses recherches sur le cosmos et les trous noirs, a déclaré récemment dans un entretien à la BBC : "Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme. Mais ce pourrait aussi être le dernier". Le scientifique craint que l'intelligence artificielle ne puisse être contrôlée, à long terme, et finisse par dépasser l'homme, limité par une lente évolution biologique. 

Nous ne sommes pas loin des films de science-fiction, comme "Ex_Machina", réalisé par Alex Garland, avec un robot humanisé interprété par Alicia Vikander.

Publicité
Publicité

Dans le film, un jeune homme tente de déterminer, en utilisant le test de Turing, si l'androïde est capable d'une pensée autonome. Naturellement, en excellent film d'anticipation catastrophique, la machine finit par agir contre son créateur et utiliser le jeune homme pour fuir sa prison.  

Si les progrès réalisés dans le domaine n'en sont pas encore là, de nombreux chercheurs et sociétés s'intéressent à la question. Le développement des objets intelligents s'intensifie, comme dans le cas des voitures autonomes ou robots-guerriers, qui peuvent apporter de réels progrès, tout en ayant des conséquences néfastes en cas de cyberattaque ou dysfonctionnements. #Google, a récemment réussi une expérience, où deux intelligences artificielles, surveillée par une troisième, ont réussi à créer leur propre système de cryptage, sans être guidées par l'humain. 

Une intelligence artificielle stupide ou autonome ?

Elon Musk, créateur de la voiture électrique Tesla et gérant de la société aéronautique Space X, a exprimé à son tour ses craintes.

Publicité

Il pense que le développement de l'intelligence artificielle, sans mettre en place des normes de sécurité, représenterait le plus grave danger pour l'homme dans le futur. Il a déclaré: "Avec l'intelligence artificielle, nous invoquons un démon". Aussi, il a décidé de financer un fond de recherche sur la sécurité liée aux avancées technologiques de l'intelligence artificielle, en investissant 10 millions de dollars. 

Bill Gates, a également, exprimé ses inquiétudes sur le site web Reddit, et affirmé qu'il soutenait les propos d'Elon Musk. Pour lui, le danger réside dans les effets pervers de l'intelligence artificielle. Programmée pour atteindre un but, la machine dotée d'une intelligence, déploie tous les moyens pour l'atteindre, sans se rendre compte du mal qu'elle peut faire, justement parce qu'elle ne possède pas de conscience ! Le programmateur humain ne peut penser et programmer des milliards d'instructions et interdictions, tandis que la machine, est capable de toutes les envisager.

Publicité

Des effets néfastes, voir très dangereux, pourraient en découler, l'intelligence artificielle n'étant pas capable par elle-même de distinguer le bien du mal. En somme, l'intelligence artificielle est à la fois plus efficace que l'homme, en terme d'efficacité de calcul et de programmation complexe, et plus stupide, n'étant pas en mesure de comprendre de manière autonome des conséquences malfaisantes. 

Grâce aux capacités des machines supérieures à l'homme, des progrès bénéfiques pourront être réalisés dans de nombreux domaines, comme par exemple la médecine. Mais le développement de l'I.A., pour de nombreux scientifiques devrait être régulé. Face à la course technologique effrénée, il faudrait penser à des protocoles de sécurité et réfléchir aux domaines d'intervention de l'I.A. Le piratage majeur récent, qui s'est fait par le biais du contrôle d'objets automatisés, démontre les limites de la sécurité des nouvelles technologies. Avant que la machine ne prenne le contrôle, il faudrait s'inquiéter qu'elle ne soit pas contrôlée... #Piratage