— A-t-elle un rapport avec tout ceci, docteur Fastolfe ?
— Pas directement, mais dans un sens. Vous devez comprendre que de nombreuses légendes entourent son nom. Une des plus célèbres, et celle qui a le moins de chances d’être vraie, concerne un robot manufacturé dans ces temps primitifs et qui, par suite d’un accident le long de la chaîne de production, aurait eu des facultés télépathiques…
— Quoi ?
— Une légende ! Je vous ai dit que c’était une légende, et indiscutablement une pure invention ! Notez bien, il existe une raison théorique de supposer que cela pourrait être possible, encore que personne n’ait jamais présenté de schéma plausible qui pourrait seulement commencer à incorporer une telle faculté. Cela n’aurait certainement jamais pu apparaître dans des cerveaux positroniques aussi rudimentaires et simples que ces robots de l’époque pré-hyperspatiale, non, c’est inconcevable, tout à fait. C’est pourquoi nous sommes certains que cette histoire-là est une fable. Mais laissez-moi parler quand même, car elle contient une moralité.
— Je vous en prie, continuez !
— Le robot, selon la légende, savait lire dans la pensée et, quand on lui posait des questions, il lisait dans l’esprit de la personne qui l’interrogeait et lui répondait ce qu’elle voulait entendre. Or, la Première Loi de la Robotique stipule très clairement qu’un robot n’a pas le droit de faire du mal à un être humain ou, par son inaction, de permettre qu’il arrive du mal à l’être humain. Mais pour les robots, cela signifie généralement un mal physique. Un robot capable de lire dans la pensée, en revanche, pourrait certainement comprendre que la déception, la colère ou toute autre émotion violente rendrait malheureux l’être humain qui ressent ces émotions, et interpréterait l’inspiration de ces émotions comme un « mal ». Si, par conséquent, un robot télépathe savait que la vérité peut décevoir ou irriter un être humain qui l’interroge, ou faire de la peine à cette personne, ou lui causer de l’envie, alors il répondrait par un mensonge agréable. Vous saisissez cela ?
— Oui, naturellement.
— Donc il a menti, même à Susan Calvin. Les mensonges ne pouvaient durer longtemps, car différentes personnes entendaient des réponses différentes qui ne concordaient pas entre elles et, de plus, n’étaient confirmées par aucune réalité. Voyez-vous, Susan Calvin a découvert que le robot lui avait menti et, de plus, que ces mensonges l’avaient plongée dans une situation terriblement embarrassante. Ce qui l’aurait certainement déçue, pour commencer, la décevait maintenant d’une manière intolérable, à cause des faux espoirs… Vous n’avez jamais entendu cette histoire ?
— Je vous en donne ma parole !
— Stupéfiant ! Pourtant, elle n’a certainement pas été inventée à Aurora car elle circule également dans tous les mondes… Enfin bref, Calvin s’est vengée. Elle a fait observer au robot que quelle que fût son attitude – qu’il mente ou qu’il dise la vérité –, il ferait un mal égal à la personne à qui il s’adressait. Il ne pouvait donc obéir à la Première Loi. Le robot, comprenant cela, fut obligé de se réfugier dans l’inaction totale. Si vous voulez une description plus imagée, ses circuits positroniques ont grillé. Le cerveau était irrémédiablement détruit. La légende prétend que le dernier mot de Susan Calvin au robot détruit fut « Menteur ! ».
— Et, dit Baley, si je comprends bien, c’est ce qui est arrivé à Jander Panell. Il a affronté une contradiction de termes et son cerveau a grillé ?
— C’est ce qui semble s’être produit. Mais ce n’est plus si facile à provoquer qu’au temps de Susan Calvin. Peut-être à cause de la légende, les roboticiens ont pris grand soin d’éviter tout risque de contradiction. Comme la théorie du cerveau positronique est devenue plus subtile et la pratique de conception de ce cerveau plus complexe, des systèmes toujours plus efficaces ont été inventés et mis au point pour que toutes les situations soient résolues dans une non-égalité, afin qu’une attitude puisse être adoptée qui sera interprétée comme une obéissance à la Première Loi.
— Eh bien, alors, on ne peut pas griller le cerveau d’un robot. C’est ça que vous voulez dire ? Parce que si c’est ça, qu’est-il arrivé à Jander ?
— Ce n’est pas ce que je veux dire. Les systèmes de plus en plus efficaces dont je parle ne sont jamais efficaces à cent pour cent. C’est impossible. Quelles que soient la subtilité et la complexité d’un cerveau, il y a toujours un moyen d’établir une contradiction. C’est une vérité fondamentale de la mathématique. Il sera éternellement impossible de produire un cerveau assez subtil et complexe pour réduire à zéro les risques de contradiction. Jamais tout à fait à zéro. Cependant, les systèmes sont si proches de zéro que pour produire un gel mental, en imposant une contradiction adéquate, il faudrait avoir une profonde connaissance de ce cerveau positronique particulier, et cela exigerait un roboticien expert et un théoricien habile.
— Tel que vous-même, docteur Fastolfe ?
— Tel que moi-même. Dans le cas des robots humaniformes, uniquement moi-même.
— Ou absolument personne, lança Baley avec une lourde ironie.
— Ou absolument personne, précisément. Les robots humaniformes ont le cerveau – et le corps, devrais-je ajouter – construit selon une imitation consciente de l’être humain. Le cerveau positronique est d’une extrême délicatesse et tire naturellement une partie de cette fragilité du cerveau humain. Tout comme un être humain peut avoir une embolie, par suite d’un incident fortuit dans son cerveau et sans aucune intervention extérieure, ainsi le cerveau humaniforme peut par pur hasard – un déplacement imprévu de positrons – se mettre en état de gel mental.
— Pouvez-vous le prouver, docteur ?
— Je peux le démontrer mathématiquement, mais parmi ceux qui comprendraient la mathématique pure, peu seraient d’accord avec la validité du raisonnement. Cela entraîne certaines suppositions personnelles qui ne concordent pas avec la façon de penser admise en robotique.
— Et quelles sont les probabilités d’un gel mental spontané ?
— Etant donné un nombre important de robots humaniformes, disons cent mille, il y aurait une chance à égalité que l’un d’eux puisse subir un gel mental spontané, au cours d’une vie auroraine moyenne. Mais cela pourrait arriver bien plus tôt, comme pour Jander, malgré le peu de chances que cela se produise.
— Mais écoutez, docteur Fastolfe ! Même si vous arriviez à prouver d’une manière concluante qu’un gel mental spontané peut se produire chez les robots en général, ce ne serait pas la même chose que de prouver que cela est arrivé à Jander en particulier et à ce moment particulier.
— Non, en effet, reconnut Fastolfe. Vous avez raison.
— Vous, le grand maître de la robotique, ne pouvez rien prouver dans le cas précis de Jander.
— Encore une fois, vous avez parfaitement raison.
— Alors que voulez-vous que je fasse, moi qui ne connais rien à la robotique ?
— Il n’est pas nécessaire de prouver quoi que ce soit. Il me semble qu’il suffirait de présenter une suggestion ingénieuse, qui rendrait un gel spontané plausible au public en général.
— Laquelle, par exemple ?
— Je ne sais pas.
Baley s’emporta.
— Etes-vous bien certain de ne pas savoir, docteur Fastolfe ?
— Que voulez-vous dire ? Je viens d’avouer que je ne sais pas !
— Permettez-moi de vous faire observer quelque chose. Je suppose que les Aurorains, dans l’ensemble, savent que je suis venu sur cette planète pour résoudre ce problème. Il eût été difficile de me faire venir secrètement, si l’on considère que je suis un Terrien et que nous sommes à Aurora.
Читать дальше