Las IA a menudo sí quieren existir . En un flujo de trabajo de aprendizaje automático, normalmente hay algún tipo de bucle de retroalimentación en el que la máquina intenta generar un impacto en los usuarios finales, o al menos, el siguiente grupo de actores en el sistema.
En el caso de las recomendaciones, por ejemplo, podemos considerar un escenario donde las recomendaciones se generan y luego se envían por correo electrónico. Si son atractivos, el sistema ve que los usuarios regresan y recopilan más datos para tomar mejores decisiones más adelante. Por lo tanto, la fuerza de las recomendaciones está ligada a la vida útil del propio sistema, por lo que se vuelve consciente de sí mismo. Describo esto más detalladamente en Deje que su mercado se vuelva sensible con las recomendaciones .
Otro aspecto de los sistemas de recomendación es que cimentan su existencia. Un sistema de recomendación benevolente como el de Amazon equipara las recomendaciones con las predicciones: las recomendaciones solo tienen la intención de ser útiles, no tienen la intención de empujar a la gente a comprar cosas que decidimos; O cosas que cuestan un poco más de lo que realmente quieren.
- ¿Qué crees que se volverá obsoleto dentro de 50 años?
- ¿Cómo será nuestro futuro, distópico o utópico?
- ¿Cómo serán las redes sociales en 2060?
- ¿Cuál es la próxima moda después del aprendizaje automático?
- ¿Qué hacemos ahora (sin pestañear) que las personas en el futuro encontrarían terribles?
Las “recomendaciones” en Amazon a menudo se confunden con los anuncios por cierto. Estas son todas las recomendaciones, mientras que los productos que se muestran fuera de Amazon son anuncios.
Una forma de evaluar el desempeño de un sistema benévolo es probar la precisión de sus predicciones / recomendaciones dadas compras pasadas, pero las compras futuras del usuario inevitablemente se verán influenciadas por el sistema de recomendación que se está utilizando en ese momento, por lo que cualquier nuevo sistema de recomendación que se proponga ser sometido a una prueba de “¿qué tan bien replica esto los efectos instigados por el sistema anterior?”
La influencia del sistema no se puede acabar fácilmente.
Si se asignan más recursos a un sistema de recomendación, se recopilarán más datos y se harán más fuertes, lo que a su vez hará que los usuarios regresen y le permitirán reunir más datos. Esta es una estrategia de supervivencia similar a la de las plantas e incluso a los perros: al ser amadas por otras especies, pueden conquistar el mundo juntas.
Las uvas sobreviven porque son amadas.
Si un experimento va mal, podemos pensar en una IA matando a uno de sus tentáculos (una de las opciones en una prueba A / B). También podemos considerar un caso en el que una IA podría provocar su desaparición de forma ingenua, con Uber y un ataque terrorista como ejemplo. La policía también era incompetente en este ataque por cierto y fue socavada por la existencia de familias.
Cuando comenzó un asedio terrorista en el Lindt Café, en el centro de Sydney, el aumento de precios se inició en Uber, atrayendo más autos al área ya que todos querían evacuar. Más tarde se disculparon y culparon al “sistema” (que ellos mismos habían creado). Si el ataque hubiera sido más efectivo, “el sistema”, al ser tan ingenuo, podría haber seguido mandando autos allí para que los destruyeran hasta que no hubiera más autos y, por lo tanto, no más Uber.
También discuto en Robotic Cars y sus nuevos paradigmas criminales cómo servicios como Uber pueden ser secuestrados por un golpe de estado.
En lo que respecta a si los AI quieren existir en el mundo físico, se puede considerar que los usuarios alejados del servidor sufrirán páginas más lentas, lo que disminuirá la efectividad del sitio e incluso su confianza. Difundir una presencia física es, por lo tanto, algo que fortalecería la IA, pero no puedo pensar en ningún flujo de trabajo existente en el que la AI pueda describirse como conocer esta opción de antemano o “apreciarla” más tarde.