El Robot Completo (78 page)

Read El Robot Completo Online

Authors: Isaac Asimov

BOOK: El Robot Completo
12.09Mb size Format: txt, pdf, ePub

—Ése es sin duda un amplio campo —dijo George—, y Norteamericana de Robots puede prosperar dentro de sus límites.

—No, por dos motivos. En primer lugar, los límites dentro de los que nos movemos se contraen inevitablemente. A medida que la colonia de la Luna se va perfeccionando, por ejemplo, disminuye su demanda de robots y las expectativas son de que, en los próximos años, se prohíba la presencia de robots en la Luna. Esto se irá repitiendo en todos los mundos que colonice la humanidad. En segundo lugar, es imposible una verdadera prosperidad sin robots sobre la Tierra. En Norteamericana de Robots tenemos la firme convicción de que los seres humanos necesitan a los robots y tienen que acostumbrarse a convivir con sus réplicas mecánicas si se desea seguir manteniendo el progreso.

¿Y no lo hacen ya? Señor Harriman, aquí en su escritorio tiene usted una terminal de una computadora que, según tengo entendido, está conectada al Multivac de la empresa. Una computadora es una especie de robot sésil; un cerebro de robot sin cuerpo...

—Tienes razón, pero también esto tiene sus limitaciones. Las computadoras que utiliza la humanidad se han ido especializando continuamente a fin de eludir una inteligencia demasiado parecida a la humana. Hace un siglo estábamos a punto de lograr una inteligencia artificial de tipo sumamente ilimitado mediante el uso de grandes computadoras que denominamos «Máquinas» Esas «Máquinas» limitaron su acción por su propia iniciativa. Una vez resuelto el problema ecológico que había amenazado a la humanidad, ellas mismas se desconectaron. La mera continuación de su existencia, fue su razonamiento, habría hecho de ellas una especie de muletas para la humanidad y, considerando que ello sería perjudicial para los seres humanos, se condenaron a la extinción según los dictados de la primera ley.

—¿Y no fue correcto este proceder?

—En mi opinión, no. Con su acción, reforzaron el complejo de Frankenstein de la humanidad; sus temores irracionales de que cualquier hombre artificial creado por ellos acabaría volviéndose contra su creador. Los hombres temen que los robots puedan sustituir a los seres humanos.

—¿Y usted no lo teme también?

—Estoy mejor informado. Ello no será posible mientras existan las tres leyes de la rebotica. Los robots pueden ser compañeros de la humanidad; pueden participar en la gran lucha por comprender y dirigir sabiamente las leyes de la naturaleza y, reunidos, podrían conseguir sin duda mucho más de lo que lograría la humanidad sola; pero siempre de manera que los robots estuviesen al servicio de los seres humanos.

—Pero si las tres leyes han demostrado ser capaces de mantener a raya a los robos durante doscientos años, ¿a qué obedece la desconfianza que sienten los seres humanos hacia ellos?

—Verás... —y el pelo canoso de Harriman se ahuecó y él empezó a rascarse vigorosamente la cabeza—, en buena parte es cuestión de superstición, naturalmente. Por desgracia, también hay algunos problemas de los que se aprovechan los agitadores antirrobots.

—¿Referentes a las tres leyes?

—Sí. En particular por lo que respecta a la segunda ley. La tercera ley no plantea el menor problema, ¿comprendes? Es universal. Los robots deben sacrificarse siempre por los seres humanos, todos los seres humanos.

—Evidentemente —dijo George Diez.

—La primera ley tal vez resulte menos satisfactoria, pues siempre es posible imaginar una situación en la cual un robot deberá realizar o bien una acción A o bien otra acción B, ambas mutuamente excluyentes, y cada una de las cuales sea perjudicial para algunos seres humanos. En ese caso, el robot tendrá que decidir rápidamente qué acción causará menos daño. No es fácil establecer los circuitos positrónicos del cerebro del robot de manera que sea posible esa selección. Suponiendo que la acción A dañara a un joven artista de talento y la acción B causara un daño equivalente a cinco personas ancianas sin ningún mérito particular, ¿qué acción debería escoger el robot?

—La acción A —dijo George Diez—. El daño causado a una persona es inferior al daño causado a cinco de ellas.

—Sí, los robots siempre han estado diseñados para que tomaran esa opción. Siempre se ha considerado poco práctico esperar que los robots pudieran juzgar detalles tales como el talento, la inteligencia, la utilidad general para la sociedad. Ello retrasaría la decisión hasta el punto de dejar prácticamente paralizado al robot. Conque nos guiamos por el número. Por fortuna, es de esperar que sean escasos los momentos críticos en que los robots deban tomar decisiones de este tipo... Pero ello nos lleva a la segunda ley.

—¿La ley de la obediencia?

—Sí. La necesidad de obediencia es constante. Un robot puede existir durante veinte años sin verse nunca en la necesidad de actuar rápidamente para evitar que un ser humano sufra algún daño, ni verse obligado a correr el riesgo de su propia destrucción. Sin embargo, durante todo ese tiempo, constantemente estará obedeciendo órdenes... ¿Quién dará esas órdenes?

—Un ser humano.

—¿Cualquier ser humano? ¿Cómo decidir quién es un ser humano y saber así si es preciso obedecerle o no? ¿Qué es el hombre que vos cuidáis de él, George?

George titubeó ante esta pregunta.

—Es una cita bíblica —se apresuró a aclarar Harriman—. Olvídalo. Lo que quiero decir es: ¿debe obedecer un robot las órdenes de un niño; o de un idiota; o de un criminal; o de un hombre inteligente y perfectamente decente pero que casualmente es inexperto y, por tanto, ignora las consecuencias indeseables de su orden? Y si dos seres humanos dan órdenes conflictivas a un robot, ¿cuál de esas órdenes deberá obedecer aquél?

—¿No se han planteado y se han resuelto ya estos problemas en estos doscientos años? —dijo George.

—No —respondió Harriman con un violento movimiento de cabeza—. Nos ha frenado el propio hecho de que nuestros robots sólo hayan sido utilizados en medios especializados del espacio exterior, donde los hombres que trabajaban con ellos eran expertos en su materia. No había niños, ni idiotas, ni criminales, ni ignorantes bienintencionados en el lugar. Aun así, en algunas ocasiones se ha causado daño a resultas de órdenes estúpidas o simplemente irreflexivas. Estos perjuicios causados en un medio limitado y especializado eran fáciles de controlar. Pero en la tierra, los robots tienen que poseer la capacidad de discernir. Eso afirman los que se oponen a los robots, y tienen razón, qué diablos.

—Entonces será preciso insertar la capacidad de discernir en el cerebro positrónico.

—Exactamente. Hemos comenzado a reproducir modelos JG en los que el robot es capaz de distinguir a cada ser humano según su sexo, su edad, su posición social y profesional, su inteligencia, su madurez, su responsabilidad social, etc.

—¿Y cómo afectaría esto a las tres leyes?

—La tercera ley no variaría en absoluto. Hasta el más valioso de los robots debe autodestruirse por el bien del más inútil de los seres humanos. Es algo que no admite discusión. La primera ley sólo se ve afectada en caso de que cualquier acción alternativa sea perjudicial. Entonces deberá considerarse la calidad, a más de la cantidad, de los seres humanos afectados, suponiendo que haya tiempo para hacer ese juicio y criterios para ello, lo cual no ocurrirá con frecuencia. La que quedará más profundamente modificada será la segunda ley, pues cualquier obediencia potencial deberá ir acompañada de un juicio previo. El robot tardará más en obedecer, excepto cuando también se aplique la primera ley, pero obedecerá más racionalmente.

—Pero los juicios que se requieren son muy complicados.

—Mucho. La necesidad de discernir esas cuestiones disminuyó la capacidad de reacción de nuestro primer par de modelos hasta dejarlos paralizados. Logramos mejorar la situación en modelos posteriores, a cambio de introducir tantos circuitos que el cerebro del robot resultó voluminoso en exceso. Pero creo que por fin hemos logrado lo que buscábamos en nuestro último par de modelos. El robot no tiene que ser capaz de juzgar instantáneamente los méritos de un ser humano y el valor de sus órdenes. Comienza por obedecer a todos los seres humanos, como un robot corriente, y luego aprende. El robot crece, aprende y madura. Al principio es el equivalente de un niño y debe estar sometido a constante vigilancia. Sin embargo, a medida que va creciendo, puede permitírsele adentrarse en la sociedad de la Tierra con un control cada vez menor. Finalmente, se convierte en un miembro de pleno derecho de esa sociedad.

—Sin duda, ello anula todas las objeciones de los que se oponen a los robots.

—No —dijo Harriman con enfado—. Ahora sus objeciones son otras. No quieren aceptar ningún juicio de valor. Según ellos, un robot no tiene derecho a decidir que tal o tal persona es inferior. Si el robot acepta las órdenes de A con preferencia a las de B, B queda calificado como una persona menos importante que A, lo cual atenta contra sus derechos humanos.

—¿Cómo se resuelve esto?

No hay solución. Yo me rindo.

—Comprendo.

Por lo que a mí respecta... Pero te la pido a ti, George.

¿A mí? —La voz de George Diez no se alteró. En ella había una leve nota de sorpresa, pero nada que le afectase exterior mente—. ¿Por qué a mí?

—Porque no eres un hombre —dijo Harriman muy tenso—. Ya te he dicho que quiero que los robots colaboren con los seres humanos. Y quiero que tú seas mi colaborador.

George Diez levantó las manos y las separó, con las palmas levantadas, en un gesto curiosamente humano.

—¿Qué puedo hacer yo?

—Tal vez tú pienses que no puedes hacer nada, George. No hace mucho que fuiste creado y todavía eres un niño. Fuiste diseñado de forma que no estuvieras saturado de información inicial -por esto he tenido que explicarte la situación de forma tan detallada-, a fin de dejar espacio para el proceso de desarrollo. Pero tu cerebro se desarrollará y serás capaz de abordar el problema desde un punto de vista no humano. Ahí donde yo no encuentro solución, tal vez tú sepas hallar una, desde tu propio punto de vista distinto.

—Mi cerebro ha sido diseñado por el hombre —dijo George Diez—. ¿En qué sentido puedo ser no-humano?

—Eres el último modelo JG, George. Tu cerebro es el más complicado que hemos diseñado hasta el momento, en algunos aspectos más sutilmente complejo que los de las viejas «Máquinas» gigantes. Es un cerebro abierto y, a partir de una base humana, puede; no, debe, desarrollarse en cualquier sentido. Aun sin salirte de los límites infranqueables de las tres leyes, puedes llegar a ser completamente no-humano en tu pensamiento.

—¿Sé lo suficiente sobre los seres humanos para poder abordar este problema de manera racional? ¿Conozco suficientemente su historia? ¿Su psicología?

—Claro que no. Pero aprenderás tan rápido como puedas.

—¿Me ayudará alguien, señor Harriman?

—No. Esto es algo totalmente privado entre tú y yo. Nadie más está enterado y no debes mencionar este proyecto a ningún otro ser humano, ni en Norteamericana de Robots ni en ninguna otra parte.

—¿Estamos haciendo algo malo, señor Harriman, y por eso quiere guardar el secreto? —preguntó George.

—No. Pero nadie aceptará la solución de un robot, precisamente por proceder de él. Cualquier solución que se te ocurra deberás confiármela a mí; y si yo la considero interesante, yo la presentaré. Nadie sabrá jamás que salió de ti.

—Visto lo que acaba de decirme antes —dijo serenamente George Diez—, creo que es el procedimiento adecuado... ¿Cuándo empezaré?

—Ahora mismo. Me ocuparé de proporcionarte todas las películas necesarias para que las examines.

1A

Harriman se quedó allí sentado a solas. En el interior artificialmente iluminado de su oficina, nada indicaba que afuera ya era oscuro. No tenía la menor sensación real de que habían transcurrido tres horas desde que había trasladado otra vez a George Diez a su cubículo y le había dejado allí con las primeras referencias filmadas.

Ahora estaba solo, con la única compañía del fantasma de Susan Calvin, la brillante roboticista que, prácticamente sin ayuda, había desarrollado el robot del cerebro positrónico desde el juguete gigantesco que era hasta convertirlo en el más delicado y versátil instrumento del hombre; tan delicado y versátil que el hombre no se atrevía a usarlo, lleno de envidia y temor.

Había transcurrido más de un siglo desde su muerte. El problema del complejo de Frankenstein ya existía en su tiempo, y Susan Calvin jamás había logrado resolverlo. Nunca intentó resolverlo, pues no había sido necesario. La robótica experimentó una expansión, en sus tiempos, con las exigencias de la exploración espacial.

Los mismos éxitos de los robots habían determinado que el hombre, luego, los necesitara menos, dejando a Harriman, en esa época posterior...

—Pero ella habría solicitado la ayuda de los robots. Ciertamente lo hubiera hecho...

Y Harriman se quedó allí sentado a solas toda la noche.

2

Maxwell Robertson era el principal accionista de
Norteamericana de Robots
y en ese sentido controlaba la empresa. No era una persona que impresionara por su aspecto ni mucho menos. Estaba bien entrado en la madurez, era más bien rechoncho, y tenía la costumbre de morderse el extremo derecho del labio inferior cuando estaba preocupado.

Pero en las dos décadas que llevaba relacionándose con figuras del Gobierno había desarrollado un sistema para manejarles. Tendía a recurrir a unos modales amables, cedía, sonreía, y siempre se las arreglaba para ganar tiempo.

Eso comenzaba a resultarle cada vez más difícil. Gunnar Eisenmuth era una importante razón de que le resultara más difícil. Dentro de la serie de Conservadores Globales, cuyo poder sólo había estado por debajo del que ostentaba el Ejecutivo Global durante el pasado siglo, Eisenmuth era el más cercano al extremo más rígido de la zona gris del compromiso. Era el primer Conservador no norteamericano de nacimiento, y aunque era imposible demostrar de alguna forma que el arcaico nombre de
Norteamericana de Robots
despertase su hostilidad, en la compañía todos estaban convencidos de ello.

Se había sugerido, y no por primera vez durante ese año -ni durante esa generación-, cambiar el nombre de la compañía por Mundial de Robots, pero Robertson no estaba dispuesto a permitirlo de ningún modo. Esa compañía fue fundada originariamente con capital norteamericano, cerebros norteamericanos y fuerza de trabajo norteamericana, y aunque hacía tiempo que la compañía había adquirido un carácter mundial por sus actividades y su naturaleza, el nombre seguiría siendo testimonio de sus orígenes mientras él detentara el control de la misma.

Other books

Shoe Dog by Phil Knight
The Snowy Tower by Belinda Murrell
The Reunion by Kraft, Adriana
The Old Wolves by Peter Brandvold
Kindle Alexander - Up In Arms by Kindle Alexander
My Childhood by Maxim Gorky