¿Es necesario programar la moral o la ética en la inteligencia artificial?

Creo que es necesario y aún no es completamente posible, lo cual es una de las razones por las que la IA es un peligro para la sociedad. Para dar un ejemplo de lo que estoy hablando, comenzaré con una historia corta (verdadera).

Un amigo mío, llamémosle “Joe” a los efectos de esta historia, dirige una empresa de inteligencia artificial para ayudar a las empresas a extraer los datos que recopilan para diversos fines. Joe me contó acerca de un contrato que tenía con uno de los principales proveedores de atención médica en la costa oeste. Me describió que el trabajo consistía en crear una manera para que un algoritmo de aprendizaje automático mejorara la calidad de la atención mediante la extracción de registros de pacientes para buscar combinaciones de genética de pacientes y medicamentos recetados que condujeran a costosos tratamientos de seguimiento debido a un mal tratamiento. Reacción a las drogas.

Explicó que esto sería beneficioso para los pacientes y las HMO porque la mala reacción de los medicamentos afecta al paciente y le cuesta mucho dinero a la HMO. Pregunté cómo el algoritmo medido detectaba y medía las reacciones a las drogas. “¿Está haciendo un procesamiento de lenguaje natural en el estudio clínico después?”, “¿Está utilizando un cuestionario estructurado para los médicos?” No … Joe dijo “esa es la belleza del algoritmo. ¡Usamos el costo total de la atención médica en los próximos 12 meses! La belleza de esto es que es tan simple “.

Entonces le pregunté a Joe: “¿Qué haría su algoritmo si resulta que hay un cáncer en particular que es costoso de tratar, y hay una mala interacción entre un medicamento contra el cáncer y las personas con un fondo genético determinado que causa que los pacientes mueran repentinamente? ? ”. Las cejas de Joe se alzaron, y un momento después sus ojos se agrandaron y se puso blanco. Se dio cuenta de que la forma en que habían configurado el algoritmo mataría a los pacientes “a propósito” si al hacerlo sus costos médicos serían menores. Bien, porque “Joe” puede leer esto y averiguar de quién estoy hablando. En realidad, no sé qué pasaba por la mente de Joe en ese momento. Pero esto es lo que creo que estaba pasando. Supongo que solucionó ese problema.

Pero la dificultad es que los problemas como este pueden ser de cientos para un algoritmo en particular. Además, el estudio humano de la ética, la moral, la psicología y la sociología están lejos de ser completos. El animal humano ha evolucionado a lo largo de cientos de millones de años para estabilizar situaciones complejas de teoría de juegos de una manera que conduzca a una estructura social estable. En este momento carecemos de una comprensión completa y sistemática del sistema moral y ético que nos ha protegido durante los últimos 100 millones de años.

Para ver un ejemplo de dónde la amoralidad del aprendizaje automático está causando daños en el mundo real (y me atrevería a decir que es mucho más perjudicial que el problema potencial de Joe), podemos ver lo que está sucediendo ahora mismo en Facebook. Hace años, el servicio de noticias dejó de ser simplemente una recopilación de todas las publicaciones de todas las personas que nominé como amigos y comenzó a ser un pequeño subconjunto elegido por un algoritmo de aprendizaje automático. Facebook no habla públicamente sobre la capacitación dada a ese algoritmo, pero no creo que sea demasiado difícil suponer que está tratando de maximizar los beneficios de la empresa.

¿Qué tipo de contenido cree que va a maximizar los beneficios a corto plazo de la empresa? Digo “a corto plazo” porque incluso los algoritmos de aprendizaje automático más avanzados no pueden salir del período de datos que se les proporciona para hacer sus predicciones sobre estos cambios. Las ganancias a corto plazo se maximizarán al desencadenar rutas adictivas en sus usuarios. Entonces, todo el medio se vuelve como un jardín en el que las plantas que crecen están dominadas por aquellas que prosperan en el “suelo” proporcionado por el algoritmo. No deberíamos estar demasiado sorprendidos por los primeros “bogies” que serán detectados por este “radar” psicológico primitivo. Rabia, sexo y gatitos. De hecho, creo que ha diseccionado el proceso de furia en una gran cantidad de subtítulos (¿alguna vez has visto el comentario de un amigo en la publicación de un extraño que aparece en tu feed? Cuando esto suceda, tómate un momento para pensar en qué algoritmo “Quiere” que hagas allí. La mayoría de las veces no es algo de lo que nuestra abuela estaría orgullosa.

Pero este proceso tiene dos efectos negativos. El primero es dañar a Facebook. He sido testigo de muchos amigos cuya programación evolutiva de 100 millones de años ha captado esta amenaza invasiva y rechazan el medio por completo. Probablemente esta es una buena idea ahora para ellos, pero para Facebook es una pérdida de ingresos. Sin el beneficio de millones de años y miles de millones de pruebas en diferentes configuraciones, el algoritmo estará condenado a tratar de sacar todo lo que pueda del sistema tan pronto como sea posible, sin tener en cuenta la destrucción de su propio dominio que podría ocurrir años por el camino.

Y esta destrucción no se limita solo al tamaño de la base de participantes. El segundo impacto negativo, mucho más serio, tiene que ver con los efectos secundarios de esa rabia. Esta ira que alimenta la adicción se alineará naturalmente con las divisiones existentes en nuestra sociedad. Izquierda / derecha, cristiano / ateo, mujer / hombre … cualquiera que use Facebook, incluso de manera casual, puede ver esto. Estas divisiones han estado presentes en nuestra sociedad durante cientos de años y han existido en un equilibrio entre la presión divisoria que crean equilibrada con las fuerzas cohesivas creadas por los lazos familiares y comunitarios. Pero la llegada relativamente brusca (en la escala de unos pocos años) de este nuevo agente en nuestra cultura ha hecho gran y “deliberadamente” (por mucho que un algoritmo pueda deliberar) aumentó la presión divisiva y al mismo tiempo erosionó los lazos familiares y comunitarios que anteriormente contrarrestaron estas presiones divisorias.

El resultado ha sido una división cultural como nunca hemos visto en nuestras vidas. Al principio, podría haber parecido una buena idea usar un algoritmo sofisticado para ayudarnos a elegir cosas que nos gustaría leer, pero como están las cosas ahora, ¡tal vez esa decisión podría costarnos más de lo que imaginamos posible!

En términos de modelado actuarial y precios, definitivamente lo son. Los datos siempre tendrán un sesgo, pero ¿cuánto sesgo humano se inyecta en el proceso de suscripción? Si el objetivo final es tener un negocio más rentable, el resto del grupo de seguros en ese LOB también se beneficiaría. Pero si el sesgo se inclina hacia prácticas de calificación discriminatorias sin saberlo… .los malos momentos.