Décider pour survivre (1)
J'ai toujours aimé les livres de science-fiction, et singulièrement ceux d'Isaac Asimov. Parmi la longue liste de ses écrits, figure toute une saga de la robotique construite autour des lois que doivent suivre les robots. Ces lois sont au nombre de trois :
- Première loi : Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.
- Deuxième loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Troisième loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.
Ainsi la vie d'un robot est simple et ses décisions sont guidées par un emboitement mettant au sommet la survie des hommes, puis la sienne. Donc pas trop d'état d'âme au moment du choix.
A l'occasion d'un livre dans lequel un robot tuait un homme, Asimov est venu ajouter une loi 0 qui place ou tente de placer la sécurité de l'humanité avant celle d'un individu. Avec la loi 0, tout se complique, car elle ouvre le champ à l'interprétation : où commence la sécurité de l'humanité, et comment être sûr que la vie d'un humain précis va la mettre en péril ? Il n'y a pas de réponses simples à cette question, et, voilà nos robots se trouvant à faire face à la difficulté de la prise de décision. Ce type de choix est tellement peu clair qu'un robot ne va pas s'en remettre, et, face à l'incapacité à décider, se bloquer.
Pour nous, c'est la même chose… en moins simple : nous avons bien des « lois », mais elles ne sont pas aussi claires, leur emboîtement moins parfait, et les risques de blocage mental sont multiples.
(à suivre)
Aucun commentaire:
Enregistrer un commentaire