Filosofía política: ¿Un sistema de inteligencia artificial sería un mejor gobierno que los humanos actuales?

Una gran pieza de ficción clásica sobre esto son los cuentos cortos de Isaac Asimov ‘Evidence’ (1946) y ‘The Evitable Conflict’ (1950) de ‘I, Robot’ ( muy poco relacionado con la película de Will Smith del mismo nombre).

El mundo está lleno de robots humanoides, que coexisten con los humanos, diseñados para ser asistentes humanos. No tienen ninguna de las “características malvadas” que se encuentran en el ciencia ficción popular y están regidas por las famosas 3 leyes de robots (en orden de prioridad):

  1. Un robot no puede dañar a un ser humano o, a través de la inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Los robots generalizan la primera ley a ‘Ninguna máquina puede dañar a la humanidad; o, a través de la inacción, permitir que la humanidad resulte dañada “(En las novelas posteriores, Asimov agrega esto como la ley cero ).

Los robots se dan cuenta de que la primera ley generalizada (o ley cero) no se puede mantener totalmente. El sufrimiento humano no puede prevenirse por completo, y como su directiva principal incluye “no permitir que la humanidad sufra daños incluso a través de la inacción “, su objetivo es reducir al mínimo la cantidad de sufrimiento universal. Se convierte en un problema de optimización. Ellos calculan que la solución más eficiente es tomar (en secreto) el control gubernamental y esclavizar efectivamente a la humanidad (sin que la humanidad lo sepa). Como está en contra de la constitución para que los robots corran en el poder, diseñan planes para ser más astutos que los humanos e infiltrarse en muchos niveles y gobernar el planeta. Incluso cometen errores ‘accidentales’ para enmarcar a los co-gobernantes o superiores humanos y los sacan del poder para obtener autonomía, tomar el control total de la economía, las decisiones de producción, etc.

A nivel estadístico, esto puede sonar muy bien (minimiza el sufrimiento humano, la economía sana, disminuye los conflictos, etc.), pero ¿qué tan bueno es para los individuos ? Efectivamente, los humanos son robots esclavos desconocidos (sí, un poco como la matriz, aunque mucho más inteligentes). Asimov no intenta responder a estas preguntas filosóficas, sino que plantea situaciones que generan más preguntas de las que responden (también hay que tener en cuenta que fueron escritas recientemente después de la Segunda Guerra Mundial).

Sin entrar en la discusión de una IA sobrehumana con una trayectoria impredecible de objetivos, veamos un problema mucho más inmediato: Imagina que podemos construir un sistema técnico que resuelva una clase de problemas de decisión / control mucho mejor que los humanos, si nos decidimos. sobre las reinas?

Por ejemplo, parece que los pilotos automáticos en los aviones y los autos que conducen por sí mismos todavía cometen muchos errores potencialmente críticos, pero menos que los operadores humanos. Si inhabilitamos el acceso humano a los controles, esto resultará en accidentes que podrían haber sido evitados por un operador humano calificado. Pero también evitará accidentes causados ​​por un error humano, y como resultado neto, salvaremos vidas humanas, incluso con IA imperfecta. No es problemático renunciar a la agencia humana, pero me parece que en estas circunstancias, deberíamos dar pleno control incluso a la IA imperfecta.

La situación se vuelve más complicada cuando nos fijamos en los diagnósticos médicos. La IA médica actual sigue siendo bastante mala para descubrir qué es lo que está mal contigo, pero si permites que un médico humano anule el diagnóstico de la IA, parece que el médico empeora la calidad del diagnóstico el 70% del tiempo. ¿Quizás deberíamos jubilarnos también los médicos? ¡Qué problema tan difícil! Como la mayoría de nosotros, los médicos me diagnosticaron en el pasado y me asusta que no pueda responderle a una IA si tengo la corazonada de que mi situación es incorrecta, incluso si en promedio Mejor que mi médico humano. Parte del problema es que los buenos médicos conocen sus límites y los límites del conocimiento médico actual en general, por lo que siempre deben mantener un grado de apertura para describir el mundo de nuevas maneras. Esto impone un requisito a la IA que no encontrará en el tráfico aéreo: la física de los aviones y las reglas de aviación no cambiarán sin previo aviso. La toma de decisiones médicas tiene efectos de segundo orden: si un médico comete un grave error, existe la posibilidad de que la ciencia médica en sí misma aprenda algo y mejore.

Los médicos tienen otro problema que los pilotos automáticos no tienen: el objetivo de la medicina es mucho más complicado de establecer. Claro, quiero ser sanado, pero no quiero someterme a todos los tratamientos posibles en cada situación de mi vida. Por ejemplo, preferiría tener una muerte indolora cuando mi calidad de vida restante esperada es muy baja, pero la compensación será bastante diferente para diferentes pacientes, para diferentes jurisdicciones, para diferentes culturas y sociedades. ¿Cuánto de eso podemos formular como criterios difíciles, y poner en una IA?

Aquí es donde nos metemos en los problemas de la gobernabilidad. Toda la política del gobierno tiene que ver con compensaciones, y casi siempre eso significa matar gente. Si gasta recursos en escuelas, no puede gastar los mismos recursos en investigación médica o en personal de hogares de ancianos. Si permite el uso de un determinado pesticida, varias personas podrían morir de cáncer y posiblemente verán un aumento en las nuevas alergias. Si usted hace que el pesticida sea ilegal, quizás a más personas pobres les resulte demasiado caro comprar verduras saludables, o pesticidas alternativos matan a las abejas, etc. Cada número no está claro, todas las predicciones están en disputa y la gente tiende a ser horrible a la hora de tomar buenas decisiones. estas circunstancias (incluso si las realidades políticas les dan la oportunidad de tomar las mejores decisiones que puedan, que rara vez es el caso). Podría ser conveniente dejar todo el número a la IA, pero ahora tenemos que hacer las reglas explícitas: ¿cuáles son las normas bajo las cuales opera la IA?

Parece que no hay un algoritmo universalmente acordado para decidir sobre normas válidas. Las normas son, en última instancia, arbitrarias, dependen de los valores que los grupos de personas logran acordar. ¿Deberían los asesinos en masa recibir la pena de muerte? ¿Se debería encerrar a las personas si aún no han cometido un delito, pero podemos decir con un 90% de certeza estadística que lo harán? ¿Qué hay del 99.9%? ¿Qué pasa con el 60%? ¿Todos deberían tener acceso a la misma atención médica, independientemente del estado económico? Si los tratamientos costosos solo estuvieran disponibles hasta una cierta edad, o dependiendo del número total de años de vida salvados, o de años de vida de alta calidad, o deberíamos dar mejores tratamientos médicos a personas virtuosas que a criminales convictos, o deberían personas que disfrutar de la vida obtener más recursos médicos que aquellos a los que realmente no les importa mucho si pueden continuar? Para tales preguntas, diferentes sociedades han encontrado respuestas diferentes y es probable que continúen haciéndolo. ¿Cómo podemos poner este proceso en manos de la IA? Y si decidimos no hacerlo, ¿no es más probable que el discurso humano conduzca a un desarrollo subóptimo de las normas sociales?

Si no tengo una respuesta fácil a la pregunta anterior, y no estoy seguro si alguien puede dar una en este momento. No tengo idea de cómo ponderar los problemas de los incentivos humanos perversos y las limitaciones cognitivas frente a los problemas causados ​​por el cese de la agencia humana, de perder la influencia en la discusión de normas y objetivos sociales, y de las soluciones tecnocráticas implementadas de manera imperfecta.

Me gustaría pensar que un señor de la IA sería un cambio para mejor. Ciertamente, una gran parte de la historia humana ha demostrado que no se puede confiar en que ni el mejor de nuestros líderes electos haga daño.

Una gran ventaja de un gobierno administrado por AI sería que todas las “reglas de gobierno” y todas las decisiones podrían ser completamente transparentes. Cualquiera podría preguntar: “¿Por qué hiciste eso?”, Y el Gobernador de AI señalaría las razones detrás de cualquier acción gubernamental y los hechos utilizados para realizar cualquier cambio de política o cumplimiento. Como tal, todas las acciones del gobierno se volverían imparciales y apolíticas, directas y completamente inocentes.

Un Gobernador de AI también debe ser escrupulosamente justo, ya que cualquier curso de acción sería lógico, impulsado únicamente por las normas legales pertinentes y los hechos en cuestión.

El gobernador de la IA reemplazaría nuestro sistema judicial. No más abogados. No más jueces. Solo un árbitro justo que decide cada caso basándose únicamente en sus méritos.

Además, como entidad eminentemente racional, un Gobernador de AI podría reevaluar todas las leyes existentes o candidatas para detectar contradicciones y duplicaciones, limpiando sustancialmente el código. Podría optimizar cuantitativamente el código civil para una eficacia máxima y una patología mínima, ajustando las leyes que no logran los fines deseados, minimizando cualquier costo cuantificable: social, económico, tiempo, psicológico, etc., al tiempo que maximiza los resultados deseados.

Podría aprender de manera eficiente de sus errores y adaptarse al cambio rápidamente y sin prejuicios, evitando la mayoría de los juicios y errores de los que es heredera la jurisprudencia basada en los seres humanos.

Al igual que Ken Jennings, también me gustaría dar la bienvenida a nuestros nuevos amos robóticos.

Hay un estudio interesante en ese ámbito en la ficción de Iain M. Banks. Sin embargo, lo importante de una IA es lo que quiere. Una vez que la IA se vuelva independiente y autónoma, ¿qué buscará?

Así que el truco de todos los trucos es determinar la filosofía operativa del núcleo de la IA. Mi conjetura es que tendrá que haber literalmente millones de reglas que la AI tendría que procesar y determinar los pesos y resultados apropiados. En otras palabras, tendríamos que construir un sistema que computa la ley humana como usted dice.

Veamos algunas de las reglas de orden superior, y aquí hay un lugar donde creo que la IA tendría algunos problemas muy difíciles si le pidiéramos que fuera coherente en lugar de flexible. Entonces, Problema Uno: Consistencia vs Flexibilidad

Imagina que hemos programado nuestra inteligencia artificial para que sea coherente y que, como consecuencia natural de su estudio de la historia humana, comprende que la muerte humana es nuestro tema más serio. Luego, según su entendimiento de la ley, calcularía qué cosas son las más mortales y su capacidad como un gobierno de formulación de políticas, hará ajustes a la ley y prescribirá reglas para que los humanos las sigan, leyes, castigos, etc.

No hace falta mucha imaginación para ver cómo juzgaría en última instancia que ciertas prácticas culturales son más peligrosas que otras. El surf, por ejemplo. En última instancia, esta IA, si tuviera la oportunidad, regularía a todos los seres humanos a la no diversidad. Para ser coherentes, la IA individual reduciría las elecciones humanas y, por lo tanto, invalidaría los asuntos individuales como la religión y la pertenencia a organizaciones que hacen cosas peligrosas u ocupaciones peligrosas.

En última instancia, la única forma en que los humanos se someterán a tales IAs es votándolos en el poder cuando se muestren a sí mismos mejores jueces que humanos. Eso es un largo camino por recorrer.

Estoy seguro de que no podemos responder a esta pregunta hoy, solo porque el término “IA fuerte” no describe al gobierno de AI. Prefiero preguntar “¿PUEDE un AI ser un mejor sistema de gobierno” (sí puede). En cualquier caso, creo que será una forma de gobierno “híbrido” antes del gobierno completo de AI, donde la ley (o cualquier tipo de documento gubernamental) debe pasar por varios pasos de aprobación (como ahora), y uno de ellos ser AI

Es ciertamente factible considerar que podría ser. Suponiendo que la IA sea lo suficientemente avanzada, podría usar modelos para probar los resultados probables dada una decisión particular y determinar cuál es la mejor solución. Por supuesto, entonces hay que imaginar cómo determinaría la IA cómo se clasificaría una idea en términos de efectividad. Esto se debe a que, si bien una idea puede ser financieramente sólida, por ejemplo, puede no ser moral o socialmente aceptable.

¡Me encanta esta pregunta! Los seres humanos (personas) son generalmente egocéntricos; Actuamos de acuerdo con nuestras propias necesidades para lograr nuestros propios objetivos. Es más fácil responder a esto si cambia la pregunta y pregunta si un gobierno humano sería mejor que un sistema de inteligencia artificial. Voy a tirar algunos conceptos para construir primero.

¿Que es una computadora? Si considera que una computadora es una máquina de toma de decisiones, entonces puede diferenciar entre humanos y computadoras. Cambiemos la descripción luego a un cuerpo de toma de decisiones. Si haces esto, entonces puedes llamar a ese cuerpo / caja metálico una computadora. También puede considerar a una persona una computadora. (Tenemos un cuerpo y tomamos decisiones) Se vuelve realmente interesante porque un gobierno es un cuerpo de personas que toma decisiones.

La caja metálica en la esquina generalmente está limitada en cuanto a las decisiones que puede tomar según la programación / codificación que se ha cargado en ella. Incluso las decisiones más simples, desde la perspectiva del usuario, en realidad se multiplican por un orden de magnitud en lo que realmente se requiere para que la computadora haga internamente. Una decisión simple en el alto nivel de un usuario pasa por capas sobre capas de codificación de interfaz de usuario y lógica de aplicación que luego se lleva a cabo mediante el sistema operativo que fue programado en lenguaje de máquina y, finalmente, todo se compila en una instrucción de lenguaje de máquina que el El microprocesador entiende y ejecuta.

Muy pocas personas se dan cuenta de que la computadora de escritorio de hoy está construida sobre capas sucesivas de tecnología en las que nuestra sociedad ha estado trabajando durante los últimos 50 años y que la lógica de toma de decisiones se ha basado en el trabajo realizado durante cientos de años.

De manera similar, una persona como computadora comienza a aprender inmediatamente cuando nace. Comienzan con lo básico como tragar y mover manos, dedos y dedos de los pies. Socialmente, aprendemos a llorar cuando queremos algo y luego no lo hacemos. Aprendemos a reconocer las voces de mami y papi y luego, cuando nos sentimos cómodos con nuestras necesidades, comenzamos a procesar el entorno que nos rodea. Después de aproximadamente 20 años, hemos procesado una cantidad considerable de información y hemos aprendido bastante; ¿Solo entonces estamos considerados listos para “ser independientes”?

El gobierno, fue creado por el pueblo, para el pueblo, y es del pueblo. Esta es mi propia paráfrasis. De la misma manera en que la computación digital se basa en ciertas teorías y principios paso a paso, nuestro gobierno se ha desarrollado a lo largo del tiempo. La Constitución nos da un plano de las tres ramas de una lógica de decisión en la rama legislativa (causa), la rama judicial (oposición) y la rama ejecutiva (efecto). En efecto, nuestro gobierno es una puerta de computadora tal como se define en la Constitución. Desafortunadamente, como seres humanos egocéntricos, tendemos a ignorar lo que no nos interesa en ese momento y simplemente miramos más allá de esta relación para ver lo que queremos ver.

Entonces, para responder a su pregunta, tenemos un ejemplo del sistema de inteligencia artificial más antiguo que existe, que funciona en nuestro país, en una computadora que utiliza seres humanos para tomar decisiones en lugar de transistores. Es irónico que nadie lo vea; Sin embargo, es lo que es.

Con la Legislatura y la gente representa a los divididos y polarizados como están ahora; la pregunta correcta es: “¿Sería un gobierno humano mejor que nuestro AI?”