
Les Trois Lois de la Robotique
PREMIÈRE LOI :
Un robot ne peut porter atteinte à un être humain, ni, restant passif, laisser cet être humain exposé au danger.
DEUXIÈME LOI :
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la Première loi.
TROISIÈME LOI :
Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi.
Les Trois Lois de la Robotique sont créées en 1942 par Isaac Asimov,
écrivain américain d’origine russe de science fiction, dans sa nouvelle “Cercle Vicieux“ .
Bien que ces règles fictives, elles protègent l’être humain en imposant des limites au robot.
Dans le dernier tome du Cycle des robots, Les Robots et l’Empire, une loi zéro est instaurée. Elaborée par deux robots, elle place la sécurité de l'humanité avant celle d'un individu.
Cependant, cette loi n'est pas codée par l’ingénieur au niveau de l’IA du robot, à la différence des trois premières. Elle a été déduite par le robot, et lui permet donc de faire du mal à un être humain, s’il estime que cela est nécessaire et sera bénéfique à l’avenir de l’humanité toute entière.
Cependant, cette loi n'est pas codée par l’ingénieur au niveau de l’IA du robot, à la différence des trois premières. Elle a été déduite par le robot, et lui permet donc de faire du mal à un être humain, s’il estime que cela est nécessaire et sera bénéfique à l’avenir de l’humanité toute entière.

Loi Zéro :
Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger.
Cette loi Zéro est déjà présente dans le dernier chapitre du tome 1 : Les Robots, sans être toutefois clairement énoncée.
Elle est également la cause de la révolte des robots dans le film “ I, Robot”, réalisé en 2004 par Alex Proyas, les robots veulent diriger les humains pour les protéger de leurs propres défauts qui causeraient leur perte à long terme.
“La machine ne peut causer qu’un préjudice minime à un humain, et seulement pour le salut du plus grand nombre”
( Le Cycle des Robots I, chapitre 9, “Conflit Evitable”)
Des chercheurs anglais ont tenté d’appliquer la Première Loi dans la réalité :
Ils ont programmé un robot afin qu’il empêche les autres robots de tomber dans un trou.
Pour tester cette loi, le robot a d’abord été confronté à un scénario simple : sauver un bot.
Lorsqu’il détectait que le bot se dirigeait vers le trou, le robot se précipitait pour changer sa trajectoire et le mettre hors de danger. Il a réalisé avec succès ce pour quoi il était programmé.
Dans un deuxième temps, le robot a été mis en présence de deux bots à sauver, ceux-ci se dirigeant simultanément vers le trou...
Lequel de ces deux bots sauver en premier ? Pourquoi l’un plutôt que l’autre ?
Dans l’incapacité de résoudre ce dilemme, soit dans 43% des cas, le robot était tellement désemparé qu’au lieu d’en sauver au moins un sur les deux, il n’en sauvait aucun. Lorsqu’il se décidait à en choisir un, il laissait l’autre tomber. Parfois, il parvenait à dévier les deux de leur trajectoire mortelle et sauver les deux.
Un robot n'a pas la capacité de l'homme à se remettre en cause et à apprendre de ses erreurs, il est programmé pour réaliser une action et l’exécutera en fonction des lignes de codes qui constituent son esprit. S'il se trouve devant une situation qu'il ne peut résoudre, son esprit n'ayant pas la capacité d'adaptation de celui de l'être humain, il ne pourra faire qu'une seule chose : “planter”.