fbpx

Un artiste apprend à Google Home à tirer avec une arme à feu

Par

le

Un artiste a programmé son Google Home pour tirer avec une arme à feu à distance, afin de mettre en garde sur les dérives potentielles de l’intelligence artificielle.

Pour le meilleur ou pour le pire, Google Assistant peut tout faire. De tâches banales comme allumer les lumières de votre domicile et mettre en place des rappels pour imiter de façon convaincante les modèles de discours humain, l’assistant IA est tellement performant qu’il peut faire peur. Sa dernière capacité (officieuse), cependant, est un peu plus sinistre. L’artiste Alexander Reben a récemment appris à l’assistant à tirer avec une arme à feu. Heureusement, la victime était une pomme, pas un être vivant. La vidéo de 30 secondes, simplement intitulée « Google Shoots », montre Reben en train de dire: « OK Google, active le pistolet ». À peine une seconde plus tard, un signal sonore retentit, l’arme se déclenche et l’assistant répond par l’affirmative. En surface, les images sont décevantes : rien d’étonnant ne se passe. Mais lorsqu’on creuse un peu plus, il est évident que ce projet est destiné à provoquer une réflexion sur les limites de ce que l’IA devrait être autorisé à faire.

Comme l’a dit Reben à Engadget, «le discours autour d’un tel appareil est plus important que sa présence physique». Pour ce projet, il a choisi d’utiliser Google Assistant, mais a déclaré qu’il pourrait s’agir d’un Amazon Echo ou d’un autre périphérique du même genre. Dans le même temps, l’appareil déclenché « aurait pu être une chaise de massage pour le dos ou une machine à faire de la crème glacée. »

Mais Reben a choisi d’équiper l’assistant avec une arme à feu. Et compte tenu des préoccupations soulevées par l’IA Duplex de Google depuis la conférence I/O plus tôt ce mois-ci ainsi que les fusillades de masse apparemment sans fin aux Etats-Unis, son choix est astucieux.

Dans cet exemple, Reben était celui qui a dit à l’assistant « d’activer le pistolet ». Il est toujours la personne responsable de l’action. Mais dans un monde où le machine learning a conduit à une IA suffisamment intelligente pour anticiper nos besoins et satisfaire notre confort au quotidien, il n’est pas difficile d’imaginer un jour où les assistants numériques pourraient tuer les gens qui nous dérangent s’ils ont accès à des armes. Qui sera alors le responsable ?

Il est assez facile de dire que nous devrions bloquer l’accès des IA aux dispositifs dangereux. Mais nous les avons déjà dans nos voitures, dans l’armée et dans d’autres endroits auxquels nous n’avons probablement même pas pensé. Nous pouvons exiger que les entreprises s’assurent que leur technologie ne puisse pas causer de dommages, mais il est tout simplement impossible de prévoir toutes les éventualités, toutes les manières possibles pour que l’IA devienne hors-la-loi.

« Une partie du message pour moi comprend les conséquences involontaires de la technologie et la futilité de considérer chaque cas d’utilisation », a déclaré Reben. Google n’aurait peut-être jamais imaginé que l’assistant soit utilisé pour tirer avec une arme. Mais tout ce qu’il a fallu à Reben pour réaliser cela, c’était des pièces autour de son studio. « La configuration a été très facile », a déclaré Reben.

Si Reben n’est pas étranger à l’art de mettre en scène les capacités de l’intelligence artificielle, cette démonstration est plus provocante et oblige le spectateur à imaginer ce qui pourrait arriver si des programmeurs mal intentionnés fabriquaient une IA pour des scénarios tragiques. Maintenant plus que jamais, nous devons avoir des discussions sur comment, et si, nous pouvons empêcher qu’une machine intelligente nous tue tous.

Articles recommandés