martes, 8 de septiembre de 2015

TRES LEYES DE LA ROBOTICA

En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov,formulaciones matemáticas impresas en los senderos positrónicos del cerebro” de los robots (líneas de código del programa de funcionamiento del robot guardadas en la ROM del mismo). Aparecidas por primera vez en el relato Runaround (1942), establecen lo siguiente:
que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son “
Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot.
Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto “complejo de Frankenstein“, es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo peligro o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot “dañe” a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un ““. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley.
Yudkowsky propone la teoría de la IA Amistosa (Friendly Artificial Intelligence o FAI), la cual difiere del concepto de que las IAs pueden hacerse seguras incluyendo en su programación o hardware especificaciones o limitaciones, frecuentemente ejemplificadas por las tres leyes de la robótica de Isaac Asimov, las cuales, en principio, forzarían a una máquina a no hacer nada que pudiera dañar a un humano, o destruirla si intenta hacerlo. FAI más bien sostiene que la inclusión de tales leyes sería inútil, porque no importa de qué manera estén descritas las leyes, una verdadera máquina inteligente con creatividad genuina y recursos podría potencialmente diseñar infinitas formas de eludir tales leyes, sin importar lo amplia o estrechamente definidas que estén.

1 comentario:

  1. Pero en supuesto caso, que ocurra este conflicto...y ya muchas pelis hablan de esto...que sería???....llegarían los robots a dominar el mundo???

    ResponderEliminar