¿Los científicos / ingenieros siguen las “Tres leyes de la robótica” de Isaac Asimov al diseñar / crear robots?

Ellos si.

Tomemos el ejemplo de un robot industrial más particularmente brazos robóticos.

Regla 1: los brazos robóticos están diseñados y desplegados teniendo en cuenta la seguridad humana. Tenemos jaulas protectoras alrededor del robot. Están programados para apagar todos los equipos conectados a él, si se presiona un interruptor de emergencia. También tenemos cortinas de luz que evitan que un robot se ejecute cuando un humano está cerca.
Regla 2: los brazos robóticos están programados para hacer una tarea muy específica una y otra vez. Esto se llama como un ciclo. El robot, sin embargo, detendrá este ciclo si un humano está muy cerca de él.
Regla 3: Tenemos diferentes sensores a bordo que monitorean continuamente la salud del Robot. Por ejemplo, el sensor de temperatura verifica si los componentes electrónicos están sobrecalentados; Los sensores de corriente detectan si hay un cortocircuito.

Entonces, en cierto modo, las leyes de Asimov se siguen en los robots de hoy; De hecho, la tecnología del brazo robótico es bastante antigua. El primer Robot Industrial conocido fue diseñado en 1937. Por lo tanto, es posible que los Ingenieros intenten diseñar robots que sigan las Leyes de Asimov incluso antes de que escribiera sobre ellos.

Esta es puramente mi opinión personal basada en leer mucho de Asimov cuando era niño / adolescente / joven adulto … De hecho, creo que el objetivo de Asimov era demostrar cómo las “leyes” simples y lógicas podrían ir mal y conducir a todo tipo de problemas. Escribió las tres leyes, y luego hizo todo lo posible para demostrar que eran todo menos infalibles.

Las leyes eran demasiado vagas y no definían adecuadamente las diferencias entre lo que es humano y lo que es robot. Sin saberlo, los robots podrían infringir las leyes cuando se los ocultó deliberadamente de todos los datos disponibles. Y en algunos casos, la superinteligencia significó que la reprogramación se hizo posible … ¡y puedes imaginar los problemas que surgirán!

En muchos sentidos, las leyes no son diferentes a los muchos seres humanos ficticios que han sido atacados por genios maliciosos, igualmente ficticios y deseos mal definidos.

En última instancia, las Tres Leyes fueron concebidas como nada más que un dispositivo literario con el que explorar los conceptos de inteligencia y humanidad. No fueron una propuesta seria con la cual construir IA reales.

No ! La mayoría de los científicos / robotistas no están usando la ley de Asimov porque hay algunas fallas en las leyes de acuerdo con ellas, por ejemplo.

En la primera ley: un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños.

En esta ley, la palabra ser humano no tiene tal estándar que el grupo de personas en la categoría de ser humano.

En la segunda ley: un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes confluyen con la primera ley.

Existe el mismo problema de que en esta ley no se definen los criterios del ser humano. ¿Permitimos que el terrorista dé órdenes a nuestros robots y que nuestros robots los obedezcan?

Infact US Army afirma que no están usando estas leyes.

Un robotista, Daniel Wilsom, argumentó que “las leyes de Asimov están muy cerca, ¡pero son totalmente una tontería! por ejemplo, están en inglés, ¿qué diablos podemos implementar en robots? ”

No literalmente. Después de todo, las Tres Leyes están destinadas a máquinas mucho más inteligentes de las que realmente existen y, además, están diseñadas para generar problemas (historias) en lugar de prevenirlos. Es un buen razonamiento programar un robot para no herir a las personas que no quiere que resulten heridas. Es estúpido diseñar un robot para que tome su propia iniciativa independiente cuando juzga que un humano podría estar en peligro y no tener manera de decirle que se detenga. Es un buen razonamiento programar un robot para seguir órdenes. Es estúpido hacer que siga todas las órdenes dadas por cualquier humano al azar que encuentre.

Pero las preocupaciones fundamentales de las tres leyes, la necesidad de seguridad, utilidad y autoconservación, se aplican a los robots de la vida real.

Ningún robot es capaz de comprender esas leyes en este momento; ninguna IA existente tiene un concepto de “daño”, un concepto de “humanos”, y especialmente no un concepto de “inacción”.

En el futuro, suponiendo que la inteligencia artificial capaz de un pensamiento independiente sea posible, tendría sentido diseñar las Tres Leyes en nuestras máquinas, por eso Asimov las creó.

Bueno, estas son las leyes para construir un robot ideal. Hoy en día tenemos robots de grado militar o robots industriales, que no suelen utilizar estas leyes. Tal vez sea debido a la falta de implementación adecuada de un robot, debido a lo cual el robot no se adhiere a las leyes. Donde sea que vaya la pregunta, la respuesta sería no, no todos los robots se atan a estas leyes, prácticamente tenemos muchos ejemplos de la vida real de todos modos.

En este momento no hay robots capaces de pensamiento independiente y, por lo tanto, estas leyes no son necesarias en la actualidad. Estas leyes tienen muchos procesos asociados interesantes. Enseñar a un robot a no dañar a un ser humano es mucho más fácil que evaluar cuándo la inacción conduce al daño. Estos dilemas son la base de algunas de las mejores historias de I-Robot de Asimov. Se hizo eco dentro de los datos de Android en Star Trek TNG y su subrutina ética.
Asimov era un hombre inteligente y erudito, pero pasó por alto la dificultad de inculcar estas leyes por el bien de su historia. Por cierto, tenía una ley cero que permitía a los humanos ser clasificados por el bien de la humanidad; ¿No sería eso un cálculo complejo?
Así que estoy de acuerdo en que sería una buena idea, pero aún está ahí con la unidad de deformación y los transportadores.

Si los robots tuvieran “cerebros positrónicos”, sería útil. Sin embargo, en este momento los robots son máquinas animadas que no son capaces de generar ideas independientes.