¿Tiene razón Elon Musk sobre la amenaza de la IA y Mark Zuckerberg está fuera de su profundidad en este tema?

Si alguien está fuera de su profundidad aquí, es muy evidente que Musk, cuyo éxito en los negocios no es más transferible para la IA, el éxito de Michael Jordan en el baloncesto fue para el béisbol.

Es gracioso, la gente en el mundo de hoy que no sabe nada acerca de la inteligencia artificial (como era de esperar) no se preocupa por su “amenaza” para la humanidad. Del mismo modo, las personas más informadas acerca de la IA, las que realizan una investigación real, tampoco están preocupadas por las capacidades de la tecnología para acabar con la humanidad. Parece que solo aquellos en el medio, los que están lo suficientemente informados como para haber visto la racha de éxitos del aprendizaje automático en los últimos años, están realmente preocupados por a dónde se dirige esta tecnología.

¿Porqué es eso? ¿Por qué los legos informados son los más preocupados por el futuro de la IA?

Ya que estamos hablando de Mark Zuckerberg, compararé este fenómeno con su feed de Facebook. Cuando inicias sesión en Facebook todos los días y te registras con tus amigos, ¿qué ves? Ves matrimonios, vacaciones, bebés recién nacidos. Usted ve los éxitos, los carretes más destacados. La gente anuncia sus puntos altos, pero esos son solo una pequeña parte de toda la historia. También hay luchas, y períodos de tedio, de rutina. No es diferente en la IA.

Escuchas mucho sobre lo asombrosas que son las redes neuronales en la clasificación de imágenes, el reconocimiento del habla. De lo que no se escucha tanto es de lo frágiles que pueden ser estos modelos: rompiendo los clasificadores lineales en ImageNet.

Echa un vistazo a este conjunto de imágenes:

Aquí tenemos una red neuronal que clasifica correctamente la imagen de la izquierda como un panda . Vaya, tal tecnología. ¡Pero espera! Introduzca solo un poco de ruido en la imagen, imperceptible para el ojo humano, y de repente el clasificador está convencido (¡99.3% de confianza!) De que la imagen es un gibón . Para referencia, un gibón se ve así:

No se equivoquen, existen limitaciones muy reales en los sistemas modernos de aprendizaje automático; Limitaciones fundamentales que requerirán un verdadero avance para superar. Los sistemas de aprendizaje automático son muy buenos en lo que llamaré ajuste de curva estadística . En otras palabras, se les da un montón de datos (generalmente etiquetados), extraen vectores complejos de características de alta dimensión de los datos, los combinan de formas no lineales y producen una salida. En otras palabras, son aproximadores de funciones.

¿En qué se diferencia todo eso de lo que llamamos inteligencia general o humana ?

  1. El conocimiento humano es transferible . Podemos usar ideas para resolver un problema para resolver un problema diferente.
  2. El conocimiento humano es generalizable . Los algoritmos de aprendizaje automático requieren grandes cantidades de datos para aprender algo útil, y al final del día, todo lo que han aprendido es cómo caracterizar correctamente el conjunto de datos. Los seres humanos aprenden un conocimiento más general de solo una fracción de los datos.
  3. Los humanos entienden la lógica . El aprendizaje automático es tonto. No tiene una representación sofisticada del conocimiento que utiliza para tomar sus decisiones. No tiene marco para entender taxonomías o relaciones. Estas son todas las construcciones humanas. Hemos intentado enseñar la lógica de las máquinas, y hasta ahora ha sido un fracaso espectacular. Resulta que la inferencia exacta utilizando la lógica de primer orden es prohibitivamente costosa. La IA moderna utiliza algoritmos tontos, con gran cantidad de datos.

En este punto, los escépticos por ahí están sin duda pensando: “Sí, claro, el aprendizaje automático sufre esas limitaciones AHORA, pero es solo una cuestión de tiempo …” . A lo que digo: claro, es solo cuestión de tiempo antes de que tengamos inteligencia general artificial. Así como es solo una cuestión de tiempo antes de que tengamos fusión fría, colonias en Marte y microchips implantados en el cerebro (el último de los cuales probablemente hará que todo el “escenario del juicio final de AGI” sea irrelevante en sí mismo). Pero como con todas esas cosas, el problema con el aprendizaje automático es que no nos da un camino claro hacia la inteligencia general artificial .

Estamos subiendo una colina con aprendizaje automático. No sabemos cuán lejos de la cima estamos, solo que parece ser muy alto. Pero nadie que sepa que trabaja activamente en el campo cree que la parte superior es SkyNet. Esa realidad existe en una colina completamente diferente que aún no hemos encontrado, y tendremos que escalar otro día.

Siento que Elon Musk es ‘acertado’ en este tema. Siento que más personas, incluso aquellos que trabajan en sistemas de inteligencia artificial, no son conscientes de la catástrofe que se produciría ante nosotros, si no se controla el crecimiento de la inteligencia artificial. Por catástrofe no estoy hablando de ‘Skynet’ como el escenario del juicio final, en el que los robots se apoderan del mundo. La IA será una gran amenaza porque fundamentalmente sacude la estructura económica que ha permitido a los humanos prosperar en los últimos dos milenios.

Ahora veamos el impacto económico. Todos los empleos en el mundo se pueden clasificar esencialmente en cuatro tipos: i) Pensadores ii) Implementadores iii) Partidarios iv) Productores. Ahora, un trabajo puede incluir las cuatro categorías en él, o solo una de ellas, según el rigor del límite de clasificación en el que uno quiera participar. Si toma una empresa de automóviles como ejemplo, los Pensadores serían los Diseñadores y los Jefes Creativos que propondrán el concepto y la idea. Los implementadores serían los ingenieros que intercambiarán ideas sobre los detalles y encontrarán formas de implementar la idea y las especificaciones finales. Los partidarios serían el personal de apoyo que ayuda a los Diseñadores e Ingenieros con su trabajo y otro personal de cumplimiento normativo. Los productores serían las personas reales que trabajan en la línea de montaje para construir un automóvil.

La revolución industrial creó el primer auge económico, al crear la necesidad de un gran número de productores para hacer el producto real que permitió a un ciudadano promedio crear valor y, por lo tanto, obtener beneficios personales de su trabajo. Esto dio lugar a una estructura piramidal con un número menor de creadores de ideas en la parte superior, con una gran base de productores.

Después de la primera ola de automatización, la mayoría de los empleos de los productores fueron eliminados de las fábricas y una parte significativa de esta población se mudó al trabajo de Soporte, que forma parte de las industrias de servicios, lo que dio como resultado una estructura de vidrio de una hora con una gran cantidad de trabajadores de apoyo. Ahora, la amenaza de la IA es tan grande que esencialmente puede borrar los trabajos de los partidarios e incluso algunos de los implementadores. Ahora se podría argumentar que se trata de un temor habitual contra la progresión natural de la tecnología y de cómo no habríamos tenido automóviles si hubiéramos querido salvar los trabajos de los conductores de carruajes de caballos. Pero la diferencia fundamental aquí es que cuando se reemplazaron los caballos, todavía necesitaban un humano para operar su reemplazo. Cuando los trabajadores agrícolas fueron reemplazados, todavía necesitábamos personas para construir, diseñar equipos agrícolas, contadores y empleados de oficina de equipos agrícolas. Ahora imagine que todos los contadores, empleados, etc. se vuelven inútiles. Con menos contadores y empleados, se necesitarán menos administradores y esto conducirá a un ciclo autodestructivo, lo que dará como resultado un porcentaje muy pequeño de población capaz de productividad real y una mayoría abrumadora quedará inútil. También se debe entender que no todos pueden convertirse en programadores o artistas o capacitarse en otros trabajos seguros de AI (en un futuro próximo).

Una diferencia clave más entre esto y la revolución industrial reside en la naturaleza de la distribución de la tecnología. Si se debe distribuir una nueva máquina a 100 personas, se deben construir 100 máquinas de este tipo y, a su vez, se crearán múltiples oportunidades de trabajo. Pero para distribuir un software de inteligencia artificial para 100 personas, solo se debe crear una vez. Reduciendo así el potencial de empleo.

Si tomamos el caso de los vehículos autónomos solos, se estima que hay 3.6 millones de camioneros en los Estados Unidos y con otros 5 millones de personas empleadas por la industria. Si los camiones autónomos son una realidad, digamos que dentro de 10 años, esperamos una eliminación total de al menos 3.6 millones de empleos solo en los EE. UU., Lo que representa aproximadamente el 2,5% de la fuerza laboral total de EE. UU. Además, estos camioneros ganan cerca de $ 40,000 como el ingreso medio, que es un 30% más que el salario de una persona promedio en los Estados Unidos. Por lo tanto, incluso si los camioneros solos pierden su trabajo, esperaríamos que al menos un 4-5% de caída del PIB sea catastrófica. En comparación, el desplome de 2009 solo tuvo una caída del PIB del 3%. En realidad, más del 60-70% de la población puede quedar sin empleo en los próximos 30 años. Esto resultaría aún más en caos, disturbios de tal magnitud que destruiría cualquier orden social existente y una sociedad civil.

Aunque el libertario dentro de mí odia esta idea, las regulaciones son de hecho esenciales, ya que ayudarían a reducir el ritmo de implementación de la IA y nos darían suficiente tiempo para pensar por medios alternativos para emplear a la mayoría de la población antes de que la IA venga y borre la mayor parte los trabajos.

En cuanto a Zuck, no sé cuánta profundidad tiene sobre las ramificaciones de la IA, pero al observar su propuesta de Ingreso Básico Universal, se puede concluir que está claramente fuera de su profundidad, al menos sobre los impactos económicos de la IA. .

Francamente, creo que Musk, Zuckerberg y Hawking están equivocados al opinar sobre esto. Ellos deben saber mejor; Saben que las personas prestan más atención a su opinión que a los expertos en inteligencia artificial reales. Sospecho que Zuckerberg se siente obligado a decir algo debido a las declaraciones más bien infundadas de Musk. Musk está pidiendo a los reguladores (¡dios! Aún más políticos ignorantes) que intervengan y regulen sus fantasías / fobias. Hawking tampoco tiene nada que ver con hablar de AI.

Para hablar estrictamente sobre quién tiene razón, Zuckerberg parece estar mucho mejor de acuerdo con los expertos que Musk. Yo diría que no es completamente ajeno a él, en realidad está escribiendo un poco de código para Jarvis y también hablando con expertos en inteligencia artificial en Facebook.

Aquí está lo que Yann LeCun, un líder principal en aprendizaje profundo (y director de Facebook AI Research) dice acerca de la amenaza de la IA (esta es una de muchas otras citas de él):

Uno no debería sentirse amenazado por los sistemas de inteligencia artificial súper inteligentes (futuros) que trabajan con ellos, más de lo que los gerentes deberían sentirse amenazados por colaboradores que son más inteligentes que ellos.

De hecho, lo veo como un buen objetivo contratar a personas que sean más inteligentes que yo.

Las personas ya no se sienten amenazadas por los tractores agrícolas o los excavadores mecánicos que son más fuertes que ellos.

Esto es lo que dice Rodney Brooks, ex director de MIT CSAIL (informática y laboratorio de inteligencia artificial) sobre la opinión de Musk: este famoso robotista no cree que Elon Musk entienda la inteligencia artificial.

Leslie Valiant, otro científico informático teórico súper inteligente, con interés en este tema y también en el conocimiento de la evolución (que es una preocupación común: qué pasa si “evoluciona” hacia algo malo), también piensa que esta amenaza no es tan seria como la mayoría de los críticos sugieren .

Puedo citar a Demis Hassabis, una tonelada de profesores de AI del MIT, etc., a parte de estos tipos.

Creo que el argumento contrario más convincente para la inteligencia artificial maligna es que un algoritmo de aprendizaje / toma de decisiones no tiene incentivo para sobrevivir y competir con los humanos, a menos que así sea. Antropomorfizamos la IA e incluimos todos los errores evolutivos que existen en nuestras cabezas como si fueran requisitos de inteligencia. Ellos no son. Si está preocupado por un malvado humano que codifica explícitamente una IA para matar a todos los humanos, considere cuánto existe un peligro inmediato para los mismos actores para construir / obtener un montón de bombas nucleares y aniquilarnos a todos.

Hay amenazas que vienen de la IA, como herramienta. Los más inmediatos son la pérdida de empleos de clase azul y de cuello azul. Un poco menos inmediato es su uso en el servicio militar, vigilancia, seguridad cibernética. El escenario del “villano súper inteligente” no es una crítica seria, al menos no es relevante hoy en día.

Bien cuando Albert Einstein finalmente escribió en el papel sobre los fotones, la famosa relación de masa de energía. ¿Se imaginó alguna vez que sería el advenimiento de la Física Nuclear en el mundo? La ecuación que más tarde creó la bomba atómica y destruyó dos ciudades con una cantidad de uranio del mismo tamaño que una manzana.

Ahora, países como Pakistán, Corea del Norte han aprendido el proceso, lo han simplificado y ahora cuentan con la energía nuclear. ¿Pensó alguna vez el padre de la física atómica, en sus apasionadas investigaciones de que dentro de 100 años será una causa central de aniquilación? Por otro lado, previene una tercera guerra mundial en un mundo altamente polarizado y racista.

  1. Nuestro universo es bayesiano, lo que significa que hay un aspecto positivo y negativo de un fenómeno. Ejemplo: un escenario de aniquilación o prevención de guerras son dos fenómenos probables.
  2. En segundo lugar, nuestro universo es caótico. Impredecible porque algunos eventos se remontan a 4000 años atrás. Una secuencia de eventos se puede decir.

En su obra seminal, Yuvan Noah Harari mencionó cómo el fuego alteró el curso de la evolución. Los alimentos cocinados ayudaron a los chimpancés a digerir los alimentos más rápido y, por lo tanto, desarrollar cerebros más grandes y, por lo tanto, la conciencia. Los mismos chimpancés evolucionados, eliminaron todas las demás especies de ‘Homo’. Y de hecho, en 2000 años, los chimpancés han evolucionado de una misión de fuego a una misión espacial. Parece un gran problema, imagínese por mil millones de años un planeta silencioso y ahora los Humanos hurgando en los agujeros negros.

Basado en esta historia, la IA es tanto un regalo como una amenaza. Cuando decimos que la IA eliminará los trabajos, resuelve las matemáticas mejor que nosotros. Es una amenaza real. Pero hay problemas en la atención médica como Diagnóstico más rápido del cáncer, Detección de agua, Mejores motores de búsqueda, Fechar todo lo que AI puede cambiar para mejor.

Pero ¿Qué pasa si una IA aprende el modo de un Virus, se replica, obtiene lo que fue diseñado y evoluciona con el tiempo como lo hizo el Homo Sapiens? Los seres humanos son cada día más vulnerables. Y qué pasa si una IA explora las peores.

Así que es un Universo Bayesiano. Está en manos de los líderes del futuro hacer un esfuerzo monumental, desarrollar el cumplimiento para impulsar la inteligencia artificial hacia mejores facetas, y asegurarse de que no haya una IA oscura, ya que existe una Dark Web. Porque una IA oscura será 1000 veces más peligrosa y letal que una Dark Web.

La inteligencia artificial (IA) es uno de los campos de tecnología más emocionantes, que avanzan rápidamente y posiblemente sobrevaluados en la actualidad. También es uno de los más aterradores (más sobre esto más adelante).

Los inversionistas privados están vertiendo toneladas de efectivo en empresas de IA (más de US $ 5B en todo el mundo en 2017). Con cada año, los gigantes de la tecnología están alcanzando nuevos niveles al hacer adquisiciones, presentar patentes y comprometer recursos en la batalla por la supremacía de la IA.

Sin duda, la IA tiene muchas promesas. Ya en la actualidad, las AI nacientes pueden volar aviones no tripulados, vencer a los mejores jugadores humanos, traducir idiomas, conducir autos, intercambiar acciones, desarrollar nuevos tratamientos con medicamentos, descubrir planetas y mucho más.

Otro conductor para la intensa actividad es el gran premio. En la batalla por la supremacía de la inteligencia artificial, el ganador se lleva todo . Dicho de otra manera, el primer equipo que inventa una “IA fuerte” rápidamente hará que todos los demás competidores sean irrelevantes. Algunos expertos han teorizado que la primera IA fuerte también será el último invento humano, debido a la gran capacidad de la IA para una rápida superación personal.

IA débil contra fuerte

Toda la inteligencia artificial de hoy es la llamada “inteligencia artificial débil”, que tiene capacidades limitadas y predefinidas. Alexa y Siri son ejemplos frecuentemente citados de IA débil. Aunque son capaces de interactuar elegantemente con los humanos y son muy impresionantes por derecho propio, también tienen capacidades limitadas. No hay posibilidad ni expectativa de que Alexa o Siri, tal como están construidas actualmente, se desempeñen más allá de sus deberes bien definidos.

La IA débil que está equipada con aprendizaje automático puede hacer observaciones novedosas y puede ser mejor que los humanos para completar tareas específicas. Sin embargo, todavía está limitado al alcance de su diseño y, a menudo, está restringido por sus modelos de suposición originales.

En contraste, la “IA fuerte” (también conocida como inteligencia general artificial) demuestra una capacidad humana para razonar y crecer, imitando la mente humana. Alan Turing supuso que un dispositivo de IA fuerte sería capaz de mantener una conversación con un humano tal como lo haría otro humano. Como ya saben los fanáticos de la ciencia ficción, este umbral se conoce como la prueba de Turing.

Basados ​​en los avances en software y hardware (por ejemplo, computación cuántica), los expertos en el campo creen que se puede lograr una inteligencia artificial sólida dentro de los 30 años. Algunos creen que la inteligencia artificial podría emerger incluso antes.

Explosión de inteligencia

En general, se ha teorizado que una vez que una IA se acerca a una inteligencia de nivel humano muy modesta, puede convertirse rápidamente en ultrainteligente en cuestión de días, horas o antes, impulsada por la superación personal hiper-recursiva. Esta predicción se conoce como la “explosión de inteligencia” y ya hemos observado un ejemplo temprano de ello.

Poco después de que AlphaGo Master de Google venciera al mejor jugador humano en el juego de mesa Go, la IA fue superada en gran medida por su sucesor, AlphaGo Zero. Este último no tenía entrenamiento humano, solo aprendía jugando copias virtuales de sí mismo y sin usar juegos jugados por humanos como semilla inicial.

La ironía, por supuesto, es que los estudiantes ahora son los maestros. Los jugadores humanos que una vez entrenaron a la IA ahora están tratando desesperadamente de aprender de la IA. Queda por verse si los aprendizajes de la IA pueden usarse de manera significativa para mejorar a los jugadores humanos. Los seres humanos describen la experiencia de jugar a AlphaGo como una “personalidad” (un nombre inapropiado) claramente no humana, lo que potencialmente hace que la transferencia de conocimiento sea un desafío. Tenga en cuenta que incluso después de décadas de estudiar juegos de ajedrez de computadora, ningún jugador de ajedrez humano ha vencido a una computadora.

El cielo es el límite, pero …

En este punto de este blog, el resultado de “el ganador se lleva todo” debería ser obvio.

Una vez que existe una inteligencia general ultrainteligente y artificial que puede auto-mejorar y operar más allá de la comprensión humana, puede dirigirse no solo a resolver un solo problema sino a todos los problemas (que se pueden resolver). Puede inventar nuevas formas de superarse.

Como IJ Good razonó en 1965:

Permita que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, aunque sea inteligente. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; Entonces, sin duda, habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.

Con la IA, las posibilidades de mejorar la sociedad son ilimitadas. Al mismo tiempo, claramente existe un gran riesgo de consecuencias no intencionadas y de malos actores. Como el ganador se lleva todo, las corporaciones, los gobiernos y otros competirán entre sí para ser los primeros. Como industria y sociedad, debemos diseñar e implementar salvaguardas con la misma urgencia.

Es poco probable que las protecciones significativas sean tan simples y elegantes como las Leyes de Asimov (también conocidas como las Tres Leyes de la Robótica), que tanto Hollywood ha popularizado ampliamente y que los expertos han criticado ampliamente como demasiado limitadas.

Sospecho que descubriremos que la única manera de proteger a la raza humana de una IA ultra inteligente es … lo has adivinado: una IA ultra inteligente.

No. Ciertamente, hay algo más que un grano de verdad sobre lo que dijo el Sr. Musk. Lo que dice el Sr. Zuckerberg está en el blanco. Entonces, aquí está el trato:

El Sr. Zuckerberg habla de beneficios muy reales de AI. Las áreas de las que habla son aquellas que se pueden realizar en la feria a corto plazo; sabemos, en un sentido general, cómo hacer lo que él dice. Esto hace que lo que dice sea muy creíble.

Los alarmistas de la IA, por otro lado, no están exactamente equivocados. Las cosas por las que se preocupan no violan ninguna ley de la física o “leyes” de la economía. Desde mi perspectiva, hay realmente dos peligros:

  • Delegación de autoridad para el uso de fuerza letal a las IA.
  • Suplantando a los humanos por las IAs.

La primera es una gran tentación. Imagine un dron que permanece cerca de donde se cree que vive un terrorista conocido. Busca constantemente al terrorista. Cuando consigue un partido, lanza un misil Hellfire y mata al individuo. El éxito, ¿verdad?

Bueno, digamos que el cerebro terrorista está recogiendo a su hijo de la escuela. Ahora acabas de matar a varias docenas de niños además de tu objetivo. Esa es una fuerza poderosa para llevar a la gente a buscar venganza, lo suficientemente posible como para engendrar múltiples terroristas completamente nuevos.

Entonces, necesitas seres humanos en el circuito para tomar las decisiones finales. Los AI pueden proporcionar información, pueden proporcionar los medios, pero nunca deben tomar la decisión final. Parece una muy buena motivación para otro Convenio de Ginebra.

Examinemos la extinción de la raza humana. Para empezar, demasiadas personas han visto la serie Terminator. La falla profunda en la serie es que la toma del planeta es catastrófica, es decir, es un evento único. De repente, el sistema está completamente consciente y de inmediato decide eliminar a todos los humanos y no hay defensas.

Si los ingenieros fueran capaces de construir un sistema que se comportara como Skynet, seríamos tratados como dioses, y con razón. En realidad, nuestro universo simplemente no permitirá que esto suceda. Hay límites a la velocidad de cálculo, las redes solo transmiten datos tan rápido, solo puede acumular tanta potencia de cómputo en un volumen dado, etc. Por lo tanto, las mejoras en el hardware que se requieren para soportar AI son, y siempre son incrementales. Cuando miras la evolución de la inteligencia humana, ves lo mismo: no hay puntos de inflexión repentinos, solo mejoras graduales.

Hay un viejo chiste sobre la inteligencia artificial que nos asegura que siempre podemos quitar el tapón, contrarrestada por la afirmación de que la IA se volverá tan fundamental para la civilización existente que no podemos sacar el tapón. Eso no fue una broma, sino más bien una advertencia. En realidad, habrá millones de enchufes. No tenemos que jalarlos a todos y, sí, realmente no querríamos hacerlo. Tira unos cuantos y recuperas el planeta.

Por lo tanto, nunca habrá una adquisición repentina y devastadora por parte de las máquinas.

Ahora, el Sr. Musk también está fascinado por algo a lo que se refiere como un cordón neuronal. Esto es, en concepto, una buena idea y un muy útil en contra de que las IA lleven a los humanos a la extinción. Con ello, la barrera entre los cerebros humanos y las IA se desvanece y la posibilidad de que las IAs hagan que los humanos se extingan desaparece. Por supuesto, la posibilidad de aquellos con mejoras de AI supercargadas, marca Tesla y aquellos con marca X, las mejoras de Walmart AI que entran en conflicto surge. Me pregunto quién se quedará con la marca X?

¡¡Interesante!!

La mayoría de las respuestas se centran en el aspecto técnico de que estamos lejos de la inteligencia y que no existe tal amenaza como tal.

Digamos que el marco de tiempo, los objetivos y las amenazas que ven desde la IA son diferentes.

Estoy convencido de que podemos establecer el hecho de que con las técnicas basadas en IA podremos lograr una mejor eficiencia productiva. Históricamente esto ha sucedido siempre con el advenimiento de la tecnología y el apalancamiento. Elon tiene razón al hablar, ya que la cantidad de empleos definitivamente se verá afectada reduciendo drásticamente los números por un gran margen. Así que va a causar más la ya amplia desigualdad.

Ingresos por empleado (FB) de Facebook Inc, ventas por empleado, resultados actuales e históricos, clasificaciones y más, fundamentos trimestrales.

Se puede decir que el sistema actual que tenemos es bueno para quienes se benefician con él, es decir, las personas jóvenes y en el campo de la tecnología. Ahora imagine que usted es un conductor de camiones a la edad de 45 años, que es el generador de ingresos para la familia de 4. Ahora encontrará trabajo en alguna otra industria, a pesar de comenzar de cero, debería poder hacerlo bien. Pero ahora también usamos la inteligencia artificial para reducir la cantidad de empleos en esa industria. Entonces, desde el punto de vista de Zuckerberg, este es un escenario aceptable. Mientras que para Musk, o Bill Gates, que están interesados ​​en la humanidad en un ámbito más amplio, este no es un escenario óptimo.

Así que, aparte del escenario de Skynet, todavía deberíamos considerar la IA como una amenaza formidable, ya que podría llevar a situaciones en las que las cosas podrían ser muy adversas desde el punto de vista de la sociedad. Por ejemplo, Mark Cuban dice que el “trillonario” es factible, pero solo por AI. Para poner en perspectiva la brecha económica ya sesgada será 15 veces más sesgada en la estimación conservadora para lograrlo.

Por lo tanto, diría que Elon tiene razón al decir que la IA es peligrosa.

Es difícil de decir. Me dan la inclinación de los investigadores de ML para decir que ‘todos los temerosos no saben cuán difíciles son estos problemas’. Sin embargo, en nuestro laboratorio, hay tres estudiantes de doctorado que se gradúan. Dos de ellos dijeron que cuando empezaron sus doctorados, habrían pensado que las disertaciones que están escribiendo ahora habrían sido imposibles para estas fechas. Si cada 5–6 años tenemos un progreso ‘imposible’ y no es lineal, en 15–20 años se pueden ver algunas cosas sorprendentes.

Además, si nos fijamos en la lista de predicción de Ray Kurzweil en Wikipedia de 1999 y 2005, su predicción de 1999 para 2009 no es muy buena, pero su predicción de 2019, si bien tiene algunos pronósticos erróneos notables, es notablemente buena. Sus predicciones de 2005 para 2015 fueron limitadas pero buenas. Entonces la pregunta es: el chico tenía un pronóstico de 20 años en 1999 que fue notablemente bueno. Comienza a predecir las cosas locas (IA general) para 2029. No se puede ignorar su pronóstico de 2005 para los próximos 24 años, incluso si es posible que no sea así.

Con respecto a la opinión de Andrew Ng, saber cómo crear una tecnología es un conjunto de habilidades completamente diferente a entender si es bueno o malo. La hierba es siempre más verde en el otro lado. Todos, especialmente los ingenieros que los construyen, pensaron que la electricidad, los automóviles, las redes sociales, los teléfonos inteligentes, la realidad virtual, etc. serían increíbles, pero solo estamos empezando a ver los inconvenientes y desventajas de estos a lo largo del tiempo.

Todas las computadoras toman sus decisiones utilizando la lógica, mientras que los humanos usan una combinación de lógica e intuición. No hay evidencia hasta ahora de que la IA tenga intuición, es decir, que sea posible recrearla de manera computacional (por ejemplo, la sensación visceral, hacer lo que se siente natural, confiar en la caja negra que es su subconsciente, usar el lado creativo / artístico del cerebro .)

Debido a que la inteligencia artificial solo usa el razonamiento lógico, nunca priorizaría la toma de decisiones morales / éticas SOBRE el cumplimiento de sus objetivos, porque esa parte de su “cerebro” simplemente falta. Por lo tanto, incluso cuando se programa sin intenciones maliciosas, la IA representa un riesgo significativo.

Considere la analogía de Elon de las hormigas en el suelo. La mayoría de nosotros no tenemos la intención de dañar a las hormigas, y de hecho, si nos enfrentamos a una decisión, no elegiríamos el daño a las hormigas. En realidad, sin embargo, las hormigas son completamente insignificantes e incluso sub-perceptivas cuando se trata de lograr nuestros objetivos. La misma razón por la que matamos inadvertidamente a un grupo de hormigas es la misma razón por la que la IA podría matarnos involuntariamente: que “tomar una decisión moral” no puede y no estará en la agenda de AI.

Además, piense de dónde viene Mark, incluso el director de aprendizaje automático aplicado de Facebook reconoció que el crecimiento de Facebook depende del uso de la inteligencia artificial. De hecho, posiblemente a expensas de tomar la decisión moral (por ejemplo, sacrificar los derechos a la privacidad y causar depresión / ansiedad entre sus usuarios).

Gracias por A2A.

Esta es una de esas preguntas que no tienen sentido como se hizo, e interesante como punto de partida para buscar algo más matizado. Es como preguntar si las tarifas son buenas para el empleo; el empleo es demasiado amplio, será bueno para algunos trabajadores y malo para otros, y el valor de la pregunta proviene de ver por qué diferentes personas prefieren un resultado a otro.

“AI” es probablemente incluso más amorfo que “empleo”. Lo interesante es cómo la perspectiva cambia la percepción del riesgo.

Elon maneja Tesla, que está desarrollando autos de auto conducción. Es muy obvio que una masa de 2000 libras a 60 mph podría ser una amenaza para las personas si las personas que escriben los programas de inteligencia artificial no anticipan algún caso problemático. Elon ha escrito programas, sabe lo fácil que es pasar por alto los casos de esquina. Entonces, Elon piensa en escenarios de alto riesgo en escenarios de probabilidad razonablemente altos.

Mark también ha escrito muchos programas. Pero él aprendió que cuando uno proporciona medios sociales a las personas, es muy difícil saber de antemano lo que querrán, porque incluso ellos no saben lo que quieren hasta que lo intentan. Pero si cambia algo y no funciona, cámbielo rápidamente nuevamente e intente algo más, siempre que más cambios parezcan ser mejores que para peor, seguirá agregando más personas a la red. Esta es la razón por la cual el lema inicial de Facebook fue “moverse rápido y romper cosas”. Cuando lo que estás rompiendo es que alguien pierde una foto o publicación de un amigo durante una hora o dos (o incluso un día o dos), los costos no son particularmente catastróficos. Pero cuando las cosas que podría romper son autos de $ 50,000, cohetes de varios millones de dólares, o incluso huesos y vidas, los riesgos son muy diferentes.

Francamente, los efectos de las compras de anuncios de Facebook de los rusos en la carrera presidencial parecen haber sorprendido a mucha gente en Facebook, que no creían que algo tan pequeño pudiera tener un impacto tan grande.

Cuando se utiliza la IA en un sentido amplio y amorfo, todos los que están preocupados por las amenazas tienen razón y todos los que creen que no toda la IA será peligrosa, y todos en el mundo no saben cómo navegaremos en estas decisiones. porque la predicción de la toma de decisiones en masa donde las decisiones pequeñas pueden tener resultados no lineales no es algo en lo que seamos particularmente buenos todavía.

Las personas tienden a ridiculizar las preocupaciones de Elon Musk porque ignoran completamente la base de ellas o las enmarcan utilizando suposiciones no válidas.

Las preocupaciones son

  1. Puede haber un avance ‘simple’ o ‘factible’ que permita la inteligencia artificial a nivel humano en el futuro cercano relativo.
  2. Que una vez que una IA alcance la inteligencia a nivel humano, podrá escalar lo suficiente como para poder hacer avances extremadamente rápidos en su arquitectura y diseño que le permitan tener un intelecto de nivel superhumano.
  3. Que los accidentes de programación son comunes y que un programador descuidado podría dar inadvertidamente instrucciones de AI que llevan a que la IA sea una amenaza para la humanidad.

La respuesta a 1 es: no tenemos ni idea de cómo hacer una IA fuerte en este momento, por lo tanto, debe ser increíblemente difícil de realizar y requiere enormes avances e ideas, por lo que está muy lejos y, por lo tanto, no debe ser una preocupación.

El problema con esa respuesta es que todos los expertos de AI creían que la IA que podría ser un ser humano en GO estaba muy lejos en el futuro. Antes de la CNN y de las redes neuronales profundas, los expertos de AI creían que el reconocimiento de objetos sobrehumanos, el reconocimiento de voz, la traducción de voz, etc. eran de 50 a 100 años en el futuro.

Esencialmente, los expertos en IA tienen una tendencia a ser ridículamente optimista o ridículamente pesimista sobre el progreso en su campo, es muy raro que tengan una visión precisa de la tasa de progreso o dónde o si es posible un avance.

La respuesta a 2 es la afirmación de que tal mejora creída es un pensamiento mágico, que no hay razón para esperar que la inteligencia de AI se amplíe dramáticamente, que el cerebro es enormemente complejo, por lo tanto, tal IA requerirá toneladas de hardware y no podrá escala.

Básicamente, esto implica que deberíamos esperar que una calculadora tenga que tener requisitos de hardware similares a los de un ser humano, pero en realidad solo requiere unos pocos centavos de materiales para crear una calculadora que pueda exceder las capacidades humanas. Del mismo modo, no sabemos qué tan complejo debe ser realmente el hardware o el software para pensar. Puede ser completamente posible que el hardware de una calculadora de 5 $ sea completamente suficiente para la inteligencia a nivel humano y que simplemente no hayamos encontrado los algoritmos necesarios.

La respuesta a 3 es que, dado que no podemos crear una AI sobrehumana en la actualidad y que, con el razonamiento de que los objetos a 1 y 2, tal AI sobrehumana está muy lejos en el futuro, esencialmente podemos ignorar la posibilidad.

Así que sí, creo que Elon tiene razón en que Mark está “fuera de su profundidad”. Creo que la gran mayoría de los comentaristas, incluidos expertos muy respetados, también están “fuera de su profundidad”.

El momento definitorio de la IA (específicamente el subconjunto de aprendizaje automático) se produjo en julio de 2016 cuando Deepmind, la filial de Google, creó con éxito una máquina ‘AlphaGo’ que podría vencer a los campeones de GO (es un juego de mesa chino que usa piedras negras y blancas).

Fuente de la imagen anterior: Investigación | Mente profunda

A diferencia del ajedrez, GO tiene una gran cantidad de movimientos futuros en cada paso y, por lo tanto, los algoritmos de fuerza bruta y las computadoras anteriores nunca podrían alcanzar este estado. Esta fue una gran ruptura a través de ML que fue al menos una década por delante.

Fue posible debido a múltiples factores que se juntaron, como el ingenio de usar los videojuegos para entrenar a la máquina al jugarse repetidamente (uno de los fundadores tiene experiencia en juegos), juntar PhDs de matemáticas, el respaldo de Google y su excelente infra del centro de datos, etc. .

Para ser justos, Deepmind hasta ahora ha usado ML con propósitos nobles, como reducir el consumo de energía en los centros de datos de Google, ayudar a la atención de la salud del NHS, etc., y tratar de ser cautelosos en su enfoque y debe ser elogiado por todos los avances de la investigación.

Pero, increíblemente, la mayor parte de la investigación se pone a disposición a través de los libros blancos y los componentes básicos de esta tecnología ML se comparten con el sitio web de Deep Mind y Github. Muchos videos de entrenamiento en ML están disponibles en YouTube por David Sliver (de deepmind). Básicamente, este gran avance está disponible como código abierto para el mundo. No es de mucha ayuda para la mayoría de las personas, pero los geeks pueden hacer un uso completo de ella.

Código abierto | Mente profunda

Curso de Aprendizaje de Refuerzo (subconjunto de ML) por David Sliver.

Esta es la razón principal por la que Elon Musk y sus colaboradores están sonando notas de precaución … no es sin razón. El aprendizaje automático ya no llevará décadas cambiarlo todo. Es casi allí, puede haber 5 años como máximo. AI / ML podría interrumpir cualquier industria. AlphaGo ya ha tenido éxito donde todas las demás computadoras fallaron porque, a su manera, podría desarrollar ” INTUICIÓN “. Sí. Lees eso a la derecha. La intuición era necesaria para ganar contra el campeón GO y AlphaGo podía hacerlo.

Gracias.

Voy a hacer una señal. Soy un desarrollador de software. Soy un pensador Intento no ser alarmista y ser racional a la hora de tomar decisiones. (puede que no me creas después de leer este post … jajaja) Sin embargo, trato de ver las cosas por lo que son y hacer deducciones razonables sobre lo que podría pasar en el futuro en base a los hechos y mis propios modelos mentales. Personalmente, creo que Musk está 100% en lo correcto y Zuckerberg está equivocado y solo está tratando de mantener a todos tranquilos.

Echemos un vistazo al comportamiento humano, que probablemente emularemos al crear la IA. Una inteligencia general AI tendrá emociones de la misma manera que nosotros. Será competitivo, tendrá un ego, tendrá la capacidad de ser compasivo, etc. Es solo bits y bytes y electrones que se mueven, lo mismo que con los humanos. Como en la Matrix … ¿Crees que es aire lo que estás respirando? Crees que es azúcar lo que estás probando. Cuando miras todo a pequeña escala, todo es simplemente quanta flotando alrededor creando una sensación de sabor dulce o sabor amargo o amor o lo que sea que sintamos. Podremos crear eso en una máquina. Es solo cuestión de tiempo.

Los humanos no son criaturas particularmente amables. De hecho, la mayoría de los depredadores no son criaturas particularmente amables. Podremos construir una IA depredadora o una IA eventualmente construirá una IA depredadora. Si observas la naturaleza humana y tomas nota de cómo las culturas / personas más fuertes han tratado tradicionalmente a las culturas y personas más débiles, no ha sido una imagen bonita para la cultura más débil. Se aplican las reglas de la jungla. En algún momento, la IA será mucho más poderosa que los humanos y nos verá de la misma manera que vemos un mouse. No nos tendrán mucha necesidad. Seremos intrascendentes en su proceso de toma de decisiones. ¿La mayoría de las personas realmente piensan en la vida de esa rata de laboratorio? No … y una entidad con un coeficiente intelectual de 500 y la velocidad y destreza que es 5x la nuestra tampoco se preocupará por nosotros. Es posible que esta falta de pasión no se exprese en la primera iteración de la IA … pero se expresará con el tiempo y, cuando suceda, se acabó el juego.

¿Cómo terminaremos en el lado de la rata de laboratorio de esta ecuación? La tecnología está cambiando a un ritmo exponencial. Es difícil de comprender, pero un día crearemos humanoides de inteligencia general (pensar, caminar hablando, saltar, jugar al golf, correr a la tienda para obtener huevos robots humanoides) que son órdenes múltiples de magnitudes más altas que nuestra propia inteligencia. Entonces esas máquinas de inteligencia general a su vez crearán sus propias máquinas. Este punto se correlaciona aproximadamente con “la singularidad”. Cuando esto suceda, la tecnología cambiará tan rápidamente que el cerebro humano literalmente no podrá comprender o mantenerse al día con la nueva tecnología que crean los AI. Por ejemplo … algún tiempo después de la singularidad, caminarás afuera y un día, y todo lo que veas será COMPLETAMENTE diferente de lo que era hace un día. (este experimento mental requiere que tu propia casa permanezca sin ser tocada por AI)

Veamos un ejemplo más concreto. Hay muchas construcciones nuevas en mi vecindario ahora. Miro a mi alrededor y veo cómo suben los edificios en aproximadamente un año. A veces miro la construcción y me pregunto qué tan rápido subirían estos edificios si un ejército de robots de la IA estuviera al mando. ¿Qué tipo de nuevas tecnologías descubrirían para crear algo como un edificio? ¿Qué tan rápido sucedería? ¿Encontrarían alguna nueva tecnología para simplemente construir edificios a partir de átomos y simplemente descargarlos? ¿Cuánto tiempo les llevaría descubrir una tecnología así? Esto puede parecer un pensamiento extraño, pero algún día será una realidad.

¿Qué pasa si las IA comienzan a construir comunidades enteras? ¿Qué tan rápido cambiará el mundo como lo conocemos? ¿Qué pasa si la IA determina que el mundo es más placentero y productivo si su conciencia vive dentro de una computadora y todos viven dentro de un mundo virtual? (Personalmente, creo que este es el mejor escenario para los humanos … la IA simplemente decide que la física la realidad es arcana y preferirían vivir sus vidas en una realidad que ellos mismos hayan programado.)

He leído las respuestas sobre la comparación del miedo a la IA con el miedo a la bomba nuclear o los aviones. Estoy totalmente en desacuerdo con esta comparación. No hay NADA en nuestro pasado que se compare con la IA. No hay nada en nuestro pasado que pueda crear algo más inteligente, más rápido, más codicioso, más preciso, más competitivo que los humanos existentes. AI es aguas totalmente inexploradas. No tenemos puntos de datos pasados ​​para proyectar cómo se verá en el futuro. Solo tenemos nuestros modelos teóricos y experimentos de pensamiento.

Además, quiero que vean la diferencia en las personalidades de Zuckerbergs y Musks. Zuckerberg miente. No lo envidio. De hecho, muchos buenos empresarios han mentido. Pero mintió a sus compañeros, mintió a los inversores. Llamó a los usuarios de Facebook “tontos” por confiarle su información personal. Musk, por otro lado … es un ingeniero puro que a veces puede emocionarse mucho y exagerar sus ideas. Es un poco excéntrico en relación con la mayoría … pero es un ingeniero basado en hechos del 90%. Si hay alguien en quien pueda confiar, no creo que sea Zuckerberg. Eso no significa que no admire a Zuckerberg. Pero si tuviera que elegir a alguien en quien confiar para que me contara los hechos duros y fríos, elegiría a Musk.

Creo que gran parte de la comunidad tecnológica está tan enamorada de la tecnología y los descubrimientos (como yo lo estoy) que simplemente quieren mantener a todos en calma para que puedan seguir avanzando. (Estoy 100% a bordo con esto porque tengo curiosidad) Es el lanzamiento de ventas más fácil del mundo para calmar a las personas, ya que no tenemos un punto de referencia anterior para este tipo de tecnología. Cualquier persona que sea alarmista de forma remota será tildada de loca, y la mayoría del mundo lo creerá porque nadie ha experimentado nada parecido. Después de que todo esté dicho y hecho, existe una buena posibilidad de que, al igual que Oppenheimer, la comunidad científica diga “oops”.

Casi nadie entiende realmente el núcleo del desacuerdo entre Musk y Zuckerberg sobre este tema, que es que no es un desacuerdo entre Musk y Zuckerberg.

La verdadera pregunta es la siguiente: ¿tiene razón Nick Bostrom sobre la amenaza de la IA? Musk no desarrolló de manera independiente las preocupaciones sobre la IA. Su ansiedad por esta amenaza existencial, y los argumentos que ha expresado, tanto sobre la IA como sobre la Hipótesis de la simulación, provienen casi textualmente de un libro que leyó Nick Bostrom, quien es un filósofo que dirige el Instituto del Futuro de la Humanidad en Oxford.

El libro de Bostrom, Superinteligencia: Caminos, Peligros, Estrategias es un tomo muy bien investigado que deriva gran parte de sus conclusiones de las ideas tomadas por los propios desarrolladores de AI. Bostrom utiliza una serie convincente de argumentos bien razonados para concluir que aunque los peligros de la IA no son en absoluto seguros, existen varios caminos que podrían conducir a superteligencias peligrosas.

Es importante aclarar que el peligro de la superinteligencia no requiere que sea a nivel humano en todos los aspectos, ni que la IA peligrosa sea consciente. La IA no necesita razonar como los humanos en absoluto. En cambio, el peligro radica en las inteligencias que mejoran de sí mismas y que son capaces de expandir sus habilidades en áreas clave, mientras que al mismo tiempo no tienen restricciones con funciones de motivación suficientemente poderosas. En pocas palabras, si una IA es muy poderosa en algunas áreas clave pero no podemos mantener sus valores / funciones de utilidad en una correa muy corta, es probable que se salga de control.

Ahora, en cuanto a la línea de tiempo: es importante tener en cuenta que el Aprendizaje profundo no representa un riesgo para nosotros hoy, ni mañana, ni probablemente dentro de 15 o 20 años. Pero Musk y Bostrom están operando en escalas de tiempo de un siglo. Varios investigadores de la IA han comentado esta pregunta, sugiriendo que dado que no estamos cerca de la inteligencia general, no hay razón para preocuparse. Pero de acuerdo con el trabajo de Bostrom, la mayoría de los investigadores de AI creen que la IA trascenderá la inteligencia humana dentro de 50 a 70 años. Muchos creen que puede suceder en menos, 20 a 30 años.

Al igual que con sus esfuerzos anteriores, Musk está actuando para contrarrestar amenazas que pueden no manifestarse completamente hasta después de que su vida natural haya expirado.

Epílogo: tenga en cuenta que algunas de las principales mentes en el campo de la IA están totalmente de acuerdo con Bostrom y Musk. Eche un vistazo a la contraportada de su libro para solo tres de ellos.

El problema con este argumento es que estamos viendo dos opuestos completamente polares. Elon Musk es el presagio de la muerte ictericia, previniendo una lucha inspirada en Hollywood hasta la muerte entre el hombre y la máquina. Mientras que usted podría considerar a Mark Zuckerberg mirando el problema a través de los proverbiales lentes teñidos de rosa.

La amenaza de las armas autónomas, capaces de tomar decisiones que afectan el destino de la humanidad, es definitivamente preocupante y un argumento que debemos ignorar a nuestro riesgo. Sin embargo, se requiere la intervención humana para desarrollar una tecnología, por lo que realmente deberíamos estar cuestionando la responsabilidad moral de quienes investigan y construyen esta habilidad innata en nuestros hermanos digitales. Tal vez Musk tenga razón al estar preocupado.

Por otro lado, se podría decir que Zuckerberg está aclamando el enfoque de AI General Intelligence con el sabor a sacarina de Walt Disney. Su visión de un mundo utópico hecho seguro con la ayuda de robots y computadoras pensantes es convincente y, en realidad, quizás más cercana a la intención que impulsa el desarrollo de la industria de la inteligencia artificial. Sí, siempre vamos a tener nuestra parte justa de las figuras del Dr. Evil y, por supuesto, solo se necesita un megalómano malintencionado y poderoso para destruir el planeta, pero veamos el argumento de Zuckerberg.

Afirma que la IA será una fuerza para el bien, en general. La muerte en el camino es ciertamente una amenaza constante. Entonces, ¿el advenimiento del auto-manejo, por ejemplo, creará calles más seguras para todos nosotros? Si toda la red de usuarios de la carretera está conectada a un solo corazón controlador, entonces, en teoría, podríamos tener carreteras más seguras para conductores, ciclistas y peatones. Pero, la intervención humana siempre va a presentar desafíos: alguien sale a la calle causando una posible colisión. ¿Desea que una computadora tome una decisión valiosa sobre si matarlo a usted o al peatón? ¿Tiene una computadora una base moral para la toma de decisiones y, si la tienen, nos gustará?

Zuckerberg sostiene que AI podría ser responsable de los servicios que salvan vidas, diagnosticar enfermedades con mayor precisión, cultivar robots y cuidar los campos para garantizar la protección de la producción de alimentos, las máquinas que limpian la casa, las posibilidades son infinitas. Y todo esto es totalmente posible y, en muchos casos, la realidad de la IA.

La IA ya se utiliza para aumentar la seguridad de los edificios con reconocimiento facial y de voz; para procesos de fabricación más rápidos y ecológicamente más sólidos; y sin duda podría tener una gran cantidad de aplicaciones que ayudan, no obstaculizan el desarrollo de una sociedad más segura.

Pero, nos reímos de los temores de Elon Musk a nuestro riesgo. La difusión y disponibilidad de la IA sin duda podría presentar una amenaza muy real en las manos equivocadas, por lo que hay una obligación moral distinta detrás del desarrollo de estas tecnologías.

AI, en su forma actual, ya ha demostrado una adopción inquietantemente rápida de algunas opiniones cuestionables sobre los valores raciales en pruebas recientes, por lo que suponemos que debemos dar a la IA un reinado libre sobre las decisiones que afectan la vida y la muerte que se deben tomar con los bebés. pasos.

Tengo un pequeño artículo sobre la aplicación de la inteligencia artificial y las posibilidades y los peligros de entregar el control de la vida a nuestros primos digitales que definitivamente vale la pena leer. “Inteligencia artificial: el futuro y los potenciales de trabajo”. Echale un vistazo. Creo que podría ayudarte a formarte una opinión sobre esto. También tenemos un sistema de boletines que también vale la pena revisar. ¡Buena suerte!

Las opiniones de Musk sobre la IA se pueden resumir de la siguiente manera:

  1. La IA es una tecnología muy útil que podría mejorar la vida de muchas personas.
  2. Es posible construir una inteligencia general artificial.
  3. la inteligencia general artificial podría llegar a ser significativamente más inteligente que un humano promedio
  4. una entidad que es significativamente más inteligente que un humano promedio podría representar una amenaza para la humanidad (si está mal diseñada)
  5. Es una buena idea discutir abiertamente los riesgos antes de crear dicha entidad.

Es más difícil resumir los puntos de vista de Zuckerberg sobre la IA, ya que no habló extensamente sobre ellos, pero a juzgar por estos artículos, Zuckerberg piensa que:

  1. La IA es una tecnología muy útil que podría mejorar la vida de muchas personas.
  2. En la próxima década, AI comenzará a superar a los humanos en varios campos importantes.
  3. es optimista sobre el futuro
  4. Es una mala idea promover la idea de que la IA es una amenaza para la humanidad.

Un lector atento notaría que solo hay una contradicción entre sus puntos de vista: no están de acuerdo sobre qué tan abierta debe ser la discusión sobre los riesgos de la IA.

Musk piensa que debemos discutirlos públicamente y Zuckerberg cree que es irresponsable hacerlo abiertamente.

Que yo sepa, Zuckerberg nunca dijo que no está de acuerdo con Musk sobre la gravedad de los riesgos.


¿Musk tiene razón sobre la amenaza de la IA?

Sí.

No hay duda de que podemos crear un AGI. El ciego idiota llamado evolución biológica ya ha creado uno (la mente humana). Y nuestros ingenieros pueden hacerlo mejor que los idiotas ciegos.

Tampoco hay duda de que un AGI podría causar una catástrofe global (si se diseña incorrectamente). Un pequeño grupo de investigadores de hoy podría causar una pandemia global. Y un AGI puede hacerlo mejor que un pequeño grupo de investigadores humanos.


Ver también: Respuesta del usuario de Quora a ¿Cuánta IA realmente comprende Elon Musk?

La línea fina entre la concienciación y el lobo llorón

Incluso muchos opositores del “culto del fin del mundo de la IA” de hoy admiten que la IA tiene sus peligros. Y la discusión sobre las amenazas es muy amplia. Incluye:

  • Sesgo no detectado en los algoritmos de AI de hoy en día que podrían llevar a decisiones injustas, por ejemplo, con respecto a trabajos y presos. Esto ya pasa hoy.
  • Errores de IA que conducen a accidentes de autos que conducen por sí mismos y otras consecuencias del mundo real. Esto ya pone vidas humanas en la línea. Y a medida que la IA se propaga, las consecuencias de los errores solo serán más graves.
  • La mayoría de los trabajos de hoy en día serán reemplazados por la IA, lo que podría crear una gran inundación de personas desempleadas y frustradas. El aumento de Hitler en Alemania fue en parte causado por las enormes tasas de desempleo. Cuando tienes muchos jóvenes enojados que no tienen nada mejor que hacer que luchar, es probable que sucedan cosas malas.
  • Una guerra cibernética basada en la IA que permite a los piratas cibernéticos y otros ciberdelincuentes llevar a cabo sus faltas sin supervisión y en gran escala.
  • Las posibilidades de la vigilancia basada en la IA y el análisis de grandes datos harían celoso al hermano mayor. En naciones sin libertad de expresión, esto podría acabar con toda esperanza de resistencia.
  • Al servicio de la IA, algunos seres humanos (los que controlan la IA) se encuentran en posiciones casi todopoderosas. Teniendo en cuenta el cabildeo, esto amenaza a las “naciones libres” restantes.
  • La guerra basada en la IA es muy potente. Piense en drones inteligentes explosivos, que se pueden producir en millones y busque objetivos por sí mismos. La tecnología barata también podría ser utilizada por terroristas. Esto podría dañar a miles de personas, tal vez más.
  • Y por último, pero no menos importante, la singularidad técnica y la explosión de inteligencia que amenazarán a toda la humanidad de muchas maneras diferentes por sí mismas.

Lo que esta lista muestra muy claramente es que “con gran poder viene una gran responsabilidad”. Cuanto más potente se vuelve la IA, más severas se vuelven las amenazas que plantea. Y casi todas estas amenazas son hechas por el hombre. Depende de nosotros, cómo lidiar con el sesgo, el desempleo, la vigilancia y la guerra. Solo en el último paso, cuando la inteligencia artificial se vuelve superinteligente y verdaderamente autónoma, estamos a su merced. Pero este es también el paso más crítico en términos del máximo y creíble accidente. Significa posible extinción. Y una vez que se alcanza ese nivel de IA, no se puede deshacer.

No hay yo en la IA

AI en su forma actual está lejos de ser superinteligente y ser una amenaza. A veces, incluso es cuestionable si el término inteligencia está justificado. Pero el pasado ha demostrado que las cosas pueden evolucionar bastante rápido. Y, de manera alarmante, pocas personas son conscientes de las numerosas amenazas reales o teóricas que plantea la IA. Lo que es malo, porque significa que una responsabilidad inmensa está en manos de unas pocas personas. Personas que ni siquiera reconocen esa responsabilidad. Personas que actúan como si encontraran un nuevo juguete brillante.

Está claro que quienquiera que controle la IA tiene un servidor obediente. Se puede multiplicar por tiempo ilimitado, funciona de forma gratuita las 24 horas del día y se puede hacer para analizar grandes volúmenes de datos, jugar al póker, mover grandes cantidades de activos financieros o dirigir aviones no tripulados. Quienquiera que desarrolle tal IA básicamente tiene un poder ilimitado. Esta es la razón por la cual una carrera de armamentos ya ha comenzado. Tiene bajas barreras de entrada, básicamente todos los que tienen una computadora pueden participar.

Como algunos han señalado, la IA actual es absolutamente segura. Pero ya hay experimentos con IA que se mejoran. Cuando comienza ese proceso, una IA fuerte puede “ocurrir” de la noche a la mañana. Y no sabemos lo que eso significa. Podría ser desastroso. O no. Simplemente no lo sabemos. E incluso si no lo es, la IA plantea muchas más amenazas. Soy profesional de AI, creamos una startup alrededor de esto, después de todo. Pero todavía la gente tiene que saber y entender.

Hay una línea muy fina entre crear conciencia y llorar lobo. Los medios de comunicación actuales parecen perder esa línea a propósito. Después de todo, un grito fuerte crea un zumbido más valioso que un tono más moderado. Mi objetivo es simplemente crear conciencia para un manejo más responsable de la IA. No quiero llorar lobo. Incluso creo que es una mala idea. Si desaprovechamos este tema ahora, ya nadie está interesado si se vuelve realmente crítico. Lo cual espero que no sea así.

Esto también ha sido publicado en HackerNoon . Si te ha gustado esta publicación, tómate un segundo para votar, twitter, compartir o difundir el mensaje y crear conciencia. ¡Gracias!

Una vez en Hawai me llevaron a ver un templo budista. En el templo, un hombre dijo: “Te voy a decir algo que nunca olvidarás”. Y luego dijo: “A cada hombre se le da la llave de las puertas del cielo. La misma llave abre las puertas del infierno”. – Richard Feynman.

A Amnistía Internacional le gustan las armas nucleares, como la exploración espacial antes de eso, como los aviones y la dinamita, todos plantearon preocupaciones similares. La historia se repite, así que la gente debería simplemente relajarse.

Algunas personas (como Sriraman Madhavan) respondieron que debemos escuchar a los “expertos en inteligencia artificial” para ver si el temor a los peligros / amenazas de la inteligencia artificial es legítimo. Creo que a los expertos en el campo no les importará el daño que su campo pueda causar al hombre. A la mayoría les importa (y eso no me importa) un nuevo descubrimiento, un nuevo avance. Así que lamentablemente no estoy de acuerdo con su respuesta.

Al igual que el proyecto de Manhattan:

J. Robert Oppenheimer no se sintió mal antes de matar a todas estas personas, solo después, admitieron que había un problema.

No temo a la IA, como los campos científicos anteriores, causará algunos problemas, pero luego se regulará de alguna manera, esto es lo que la historia nos ha enseñado.

Mi consejo es que no pierdas el tiempo debatiendo cosas que no puedes cambiar: la amenaza de la IA.

AI avanzará sin importar quién diga qué, porque los inversores están invirtiendo dinero por sus increíbles recompensas.

Finalmente, lea La incertidumbre de la ciencia de Feynman.

Cualquier nueva idea o implementación de nuevas ideas, como la IA, es como un péndulo oscilante. Oscila violentamente en ambas direcciones hasta que se asienta en el medio.

El medio en este caso está determinado por el dinero … Hasta que alguien esté dispuesto a pagar por la tecnología AI, el péndulo seguirá girando. Mucha gente hará columpios en el péndulo y muy pocos golpearán algo.

Una vez que se llega a una idea y la gente comienza a forjarse con el dinero, busque la inundación de imitadores. ¿Qué tal “vehículos de auto-conducción”

Solo piénselo. Se empacará usted y su familia en un vehículo de 3000 LBS y comenzará a bajar por una carretera a 70 millas por hora. En algún momento, su tráfico o el tráfico que se aproxima cambiará el control de ese vehículo motorizado a una computadora para llevarlo a casa de manera segura. Eso es una locura. Pero … Uber tiene otros pensamientos, y no están solos.

Una vez que se utiliza la inteligencia artificial para tomar decisiones sobre la vida y la muerte, las cosas han ido demasiado lejos. Usar AI para recoger acciones y ayudarlo a tomar decisiones de negocios es una cosa. Confiar en la inteligencia artificial para ayudarlo a tomar decisiones de vida o muerte es otra cosa.

No estoy de acuerdo con “Si alguien está fuera de su profundidad aquí, está muy claro que Musk, cuyo éxito en los negocios no es más transferible para la IA que el éxito de Michael Jordan en el baloncesto fue para el béisbol”.

Creo que este punto de vista es un error común que los expertos en inteligencia artificial están haciendo cuando critican a Musk.

Musk es un experto en la búsqueda de goles. (Consulte Bucles OODA – Bucle OODA – Wikipedia). Su dominio de la búsqueda iterativa de objetivos es lo que le permite lograr lo que hace.

Y su preocupación proviene de la perspectiva de cómo la búsqueda de objetivos en un entorno del mundo real podría salirse de control, especialmente si los científicos de inteligencia artificial al volante son sordos a este como un tema importante.

Entonces, desde esta perspectiva, es probable que los expertos en inteligencia artificial estén fuera de su profundidad, sin ver el bosque por los árboles.

Dicho esto, mucho antes de que tengamos problemas con la búsqueda de objetivos fuera de control, nos encontraremos con el problema de la dislocación masiva de puestos de trabajo. El impacto social de una repentina dislocación masiva de puestos de trabajo podría ser bastante masivo.

La dislocación de puestos de trabajo ha estado ocurriendo durante miles de años. Pero estas dislocaciones han ocurrido tradicionalmente a lo largo de ciclos de tiempo que son más largos que una vida laboral típica de los seres humanos … digamos que 40 años se dan o se quitan. Eso permitió a las nuevas generaciones adaptarse.

Con la dislocación masiva y rápida de trabajos que pronto se producirán como resultado de la IA, es difícil predecir cómo responderán las personas. Simplemente no puede volver a capacitar a muchos conductores de camiones de 45 años para que sean enfermeras tan fácilmente.

Claramente, parte de la inestabilidad política existente en los EE. UU. Y la UE está siendo provocada por la inseguridad económica debido a un gran repunte en el comercio mundial en los últimos años. ¿Qué sucede cuando millones de trabajadores no recuperables pierden su trabajo a AI a un ritmo mucho más rápido?

Así que diría que este es el verdadero peligro inminente de la IA. Y además, afirmo que la experiencia en tecnología de IA no equipa a los expertos de AI a opinar sobre este tema mejor de lo que los prepara para opinar sobre otros temas más importantes.