Si vous n’avez pas déjà assez de soucis à vous faire, pensez à un monde où l’intelligence artificielle chargée de trouver des solutions, de concevoir des astuces et de contourner les données est aussi vieille que l’humanité. Mais en tant qu’êtres humains, nous résolvons les problèmes de manière créative, nous exploitons les failles, nous manipulons les systèmes, nous nous efforçons d’avoir plus d’influence, de pouvoir et de richesse, mais jusqu’à présent, créer des astuces était une activité exclusivement pour les humains, pas pour longtemps en tout cas…
L’intelligence artificielle finira par découvrir des vulnérabilités dans toutes sortes de systèmes sociaux, économiques et politiques, puis les exploitera avec une vitesse, une échelle et une portée sans précédent. Après avoir contourné l’humanité, les systèmes d’IA peuvent alors contourner d’autres systèmes d’IA, et les humains ne seront guère plus que des garanties dommage. . Eh bien, c’est peut-être une exagération, mais la plupart de ces choses ne nécessitent de toute façon pas de grands outrages de recherche sur l’IA, elles se produisent, mais le rythme et la complexité de l’IA semblent être plus rapides que nous, les humains.
L’intelligence artificielle ne résout pas les problèmes comme le font les humains. Elle examine plus de types de solutions que nous, les humains, et emprunte des chemins complexes auxquels nous n’avons pas pensé. Cela peut être un problème en raison du soi-disant « problème d’interprétation ». Nous pouvons dire que les systèmes d’IA modernes sont essentiellement dans des boîtes noires, les données vont à une extrémité et la réponse sort à l’autre. Il peut être impossible de comprendre comment le système est arrivé à sa fin, même si vous êtes un programmeur à la recherche dans le code.
En 2015, un groupe de recherche a alimenté un système d’intelligence artificielle appelé Deep Patient avec les données de santé et médicales de près de 700 000 personnes et a testé s’il pouvait prédire les maladies. Le système était capable de le faire, mais le Deep Patient n’a donné aucune explication. la base du diagnostic, les chercheurs n’ont aucune idée de la façon dont il est arrivé à ses conclusions, et le médecin peut soit faire confiance à l’ordinateur, soit l’ignorer, mais cette confiance restera aveugle.
Alors que les chercheurs travaillent sur une IA qui peut s’expliquer, il semble y avoir un compromis entre la capacité et l’explicabilité. Les explications sont un raccourci épistémologique que les humains utilisent, approprié à la façon dont les humains prennent des décisions. Forcer l’IA à fournir des explications peut être un moyen supplémentaire limitation qui peut affecter la qualité de vie.Ses décisions, pour l’instant, l’IA devient plus ambiguë et moins explicable.
Séparément, l’intelligence artificielle peut s’engager dans ce qu’on appelle un « coup de récompense ». Parce que l’IA ne résout pas les problèmes de la même manière que les gens le pensent, elle proposera toujours des solutions auxquelles nous, les humains, ne nous attendions peut-être pas du tout, dont certaines peuvent perturber le système, car l’IA ne pense pas en termes d’implications, le contexte, les normes et les valeurs que nous, les humains, partageons et prenons Certes, ce piratage de primes implique d’atteindre un objectif, mais d’une manière que les développeurs d’IA ne voulaient pas et ne voulaient pas dire.
Prenez la simulation de football par exemple, où l’intelligence artificielle a découvert que si le ballon est botté en dehors des limites, le gardien de but devra lancer le ballon et laisser le but sans protection. Ou une autre simulation, où une IA a découvert qu’au lieu de courir, elle pouvait se rendre assez haute pour franchir une ligne d’arrivée éloignée en tombant dessus, ou un robot aspirateur, qui au lieu d’apprendre à ne pas heurter les choses, a appris à reculer, là où il n’y en avait pas, les capteurs lui disent qu’il heurte des objets. Ainsi, s’il y a des problèmes, des incohérences ou des failles dans les règles, et si ces caractéristiques conduisent à une solution acceptable telle que définie dans les règles, tôt ou tard les systèmes d’IA trouveront ces solutions.
Nous avons lu sur ce problème d’esquiver les solutions logiques lorsque nous étions enfants dans l’histoire du roi grec Midas, lorsque le dieu Dionysos lui a accordé un souhait, et Midas a demandé que tout ce qu’il touchait soit transformé en or, mais il finit par avoir faim et misérable quand sa nourriture, sa boisson et sa fille se transforment en or. Problème de spécification car Midas a programmé la mauvaise cible dans le système.
Lire aussi : L’intelligence Artificielle Apprend À Influencer Notre Comportement
En 2015, Volkswagen a été surpris en train de tricher lors de tests de contrôle des émissions. Le coupable n’était pas l’intelligence artificielle ; Les ingénieurs humains ont programmé un ordinateur ordinaire pour tricher, mais cela illustre le problème. Ils ont programmé leur moteur pour détecter un test de contrôle des émissions, mais celui-ci s’est comporté différemment, et leur tricherie n’a pas été détectée pendant des années.
Si on vous demandait de concevoir le logiciel de contrôle du moteur d’une voiture pour maximiser les performances tout en réussissant les tests de contrôle des émissions, vous ne concevriez pas le logiciel pour tricher sans comprendre que vous trichiez, ce qui n’est tout simplement pas vrai pour l’intelligence artificielle. Il pensera « hors des sentiers battus » simplement parce qu’il n’aura pas une perception de la boîte.
Il ne comprendra pas que la solution de Volkswagen nuit aux autres, sape l’intention des tests de contrôle des émissions et viole la loi. À moins que les programmeurs ne se fixent l’objectif de ne pas se comporter différemment lors des tests, l’intelligence artificielle peut proposer la même solution. Les programmeurs seront satisfaits, les comptables sont ravis, et à cause du problème d’interprétation, personne ne se rendra compte de ce que l’IA a fait. Et oui, connaissant l’histoire de Volkswagen, on peut se fixer un objectif explicite pour éviter cette solution particulière, mais la leçon de l’histoire du génie est qu’il y aura toujours des interprétations et des solutions inattendues.