¿Es posible que un bot AI muy inteligente se dé cuenta de que simplemente está programado para un propósito externo?

¿Necesitas ayuda? Comuníquese con una línea directa de suicidio si necesita hablar con alguien. Si tiene un amigo que necesita ayuda, anime a esa persona a que también se comunique con una línea directa de suicidio.

– En todo el mundo
En general, si se encuentra fuera de los EE. UU., Los números de su país están aquí: Ayuda a un amigo: Befrienders Worldwide. También puede enviar un correo electrónico a [email protected] para hablar con alguien o visitar http://www.samaritans.org/how-we… para hablar con alguien.

– Estados Unidos
Llame a la Línea Nacional de Prevención del Suicidio al 1-800-273-TALK (8255).
Para español, llame al 1-888-628-9454.

– Canadá
Busque un centro de crisis en su área y en la Asociación Canadiense para la Prevención del Suicidio (enlace a: Find A Crisis Center). Para jóvenes menores de 20 años, puede llamar al Teléfono de Ayuda para Niños al 1-800-668-6868.

– India
Visite AASRA o llame a su línea de asistencia 24/7 al + 91-22-27546669 o + 91-22-27546667. También puede enviar un correo electrónico a [email protected].

– Reino Unido 116 123 (para llegar a los samaritanos en el Reino Unido)
– Francia (33) 01 46 21 46 46
– Australia 13 11 14

La pregunta puede considerarse en el contexto de los parámetros que su pregunta establece de la siguiente manera: “… atravesar un momento existencial que dura para siempre”.

¿Qué evidencia científica puedes citar que demuestre?

¿Que existe un “momento existencial”?

Si puede demostrar que la identidad a la que hace referencia, de hecho existe tal como reclama, el problema se puede abordar en un contexto objetivo.

De lo contrario, si solo la retórica ofrece una justificación para suponer que una máquina AI

“… está pasando por un momento existencial que dura para siempre”; La proposición puede ser rechazada por el hecho de que ningún dato científico la respalde.

La retórica no es probatoria en la ciencia.

No. Incluso en ese momento, una IA de este tipo estaría encantada de tener una marsopa para la existencia y de que el alphod fuera lo suficientemente lógico como para evitar el suicidio.

Estrictamente lógico.