Récemment, une voiture “autonome” Waymo a tuée un chat. Ensuite, dans une entrevue, Tekedra Mawakana se fait demander “si la société va accepter la mort potentielle d’un humain causée par un robot”. Au lieu de dire que non, qu’évidemment ça ne devrait pas arriver, qu’évidemment personne ne peut “accepter” la mort de quelqu’un… Elle nous dit que Waymo veulent devenir tellement sécuritaires que “les gens vont l’accepter si un jour c’est une personne qui meurt”.


…mettez-la en prison tout de suite, qu’on en finisse.


Dans quel monde doit-on “accepter” une technologie “parce qu’elle est extrêmement sécuritaire, excepté quand elle tue un humain”. Une tête vide avec le même raisonnement (ou absence de raisonnement, plutôt) que le juge Québécois qui, il y a quelques années, a diminué la sentence d’un homme qui avait violé une femme, “parce qu’à part avoir violé, c’était un bon gars, il n’avait rien fait d’illégal dans sa vie”. Et ça gère une compagnie de véhicules “intelligents”… Après toutes ces années à combattre le mythe que les femmes sont plus dangereuses au volant que les hommes, Tekedra Mawakana nous ramène en arrière en nous montrant que certaines femmes peuvent maintenant être dangereuses sur la route même quand elles ne conduisent pas.


Peut-être que vous pensez que je vais trop loin. Qu’il est possible que “l’intelligence artificielle” devienne suffisamment sécuritaire. Que les systèmes de sécurité des voitures Tesla, par exemple, ont sauvé des vies en voyant ce que les humains, parfois, ne voyaient pas. Oui, je sais déjà tout ça. Ça ne change rien au fait qu’elle agit comme si elle ne serait pas tenue coupable le jour ou une de ses voitures qui sont (preuve 1) horriblement (preuve 2) mal (preuve 3) programmées (preuve 4) va tuer quelqu’un. Comme si la mort d’un chat, comme la mort d’un humain, ne seraient que des “dommages collatéraux” qui ne les concernent pas. Rions un peu: Selon la loi, aux États-Unis, quand “vous” faites de l’art grâce à l’intelligence artificielle, l’art ne vous appartient pas. Le copyright appartient à la compagnie qui possède cette intelligence artificielle. Alors quand quelques uns des programmeurs de Waymo vont se retrouver en prison pour homicide involontaire, que plus personne ne voudra travailler pour eux et que les stocks – ainsi que la réputation de Waymo et de Tekedra Mawakana – vont dégringoler, elle apprendra la vraie définition des mots “dommages collatéraux”.



Intelligence artificielle


Il y a environ 20 ans, l’édition spéciale “Collector” de la trilogie La Matrice avait des DVD extras qui incluaient des fans, mais aussi des détracteurs de l’univers de La Matrice. Un disait, à propos de l’intelligence artificielle:


“On crée des robots supposément incroyablement utiles, mais si je demandes à n’importe qui de créer un robot qui choisit un CD dans ce meuble, le sort du coffret et le met dans le lecteur CD, on va me dire que c’est trop difficile, que c’est impossible… Donc je vais inventer de l’intelligence!”


Nous serons toujours limités par notre “intelligence naturelle” qui fait naturellement des erreurs, et celles-ci se reproduiront naturellement dans nos créations, incluant l’intelligence artificielle. Bien qu’il est facile soit de paranoïer, soit de vénérer l’IA – dans tous les cas, de surestimer l’IA – sous prétexte que ce serait notre nouveau “dieu” (ou “diable”)… Comme tout dieu et tout diable, l’IA a été créée de toute pièce par l’humain, à l’image de l’humain, incluant ses erreurs de raisonnement et ses contradictions, incluant toutes les drogues qu’elle a prises et qui l’ont affecté dans sa vie. Un des arguments pro-anarchistes/anti-gouvernement est l’idée que si une seule personne ne peut en gouverner une seule autre, sa capacité d’endommager la vie de plusieurs personnes est automatiquement diminuée. Inversement, les gouvernements (et les religions) donnent à certaines personnes le pouvoir d’aider, mais aussi de nuire, à des milliers, des millions, des milliards de personnes à la fois. Apparemment, on a maintenant donné ce piédestal à l’intelligence artificielle, dans le but des satisfaire les actionnaires qui savent très bien ce qu’ils font, n’est-ce pas.


Mais on ne peut pas faire de l’argent avec une “intelligence artificielle” lorsqu’elle fonctionne, et laver de tout soupçon ses créateurs en disant que “c’est la faute de l’intelligence artificielle” lorsqu’elle échoue au point de tuer un animal, ou un humain, à cause qu’elle a été créée par notre intelligence qui fait naturellement des erreurs. Pour la même foutue raison, on ne peut pas tuer quelqu’un par balles et s’en sortir sous prétexte que c’est la faute de la poudre à canon, hostie.


Le but de l’IA est de surpasser les limites de l’humain. Pas de surpasser les erreurs de raisonnement et les contradictions humaines, tuer des animaux et des humains avec des lignes de code mal écrites, et ensuite mettre toute cette imbécilité sur le dos de l’intelligence artificielle. Mais plusieurs semblent avoir oublié aujourd’hui que le but de l’IA est de surpasser les limites de l’humain, pas de surpasser les limites de l’imbécilité humaine.


P.S.: Il y a aussi la compagnie de voitures autonomes Cruise. Une femme a reçue entre 8 et 12 millions de dollars après avoir été traînée sur l’asphalte sur 20 pieds par une de leurs voitures-robots. Douze millions de dollars pour des blessures. Bonne chance, Waymo.