Google parece estar insinuando que este será un propósito importante de Google Glass, especialmente en su truco de paracaidismo de Google I / O. Por supuesto, el producto actualmente se limita a compartir video solamente. Me imagino que la transmisión de sensaciones físicas y neurales se debería contemplar detenidamente antes de que se libere un producto, ya que esto podría fácilmente volverse muy intrusivo / incómodo. Pero los datos básicos serían fáciles de recuperar: la información de temperatura se podría recopilar de un servicio meteorológico o del propio dispositivo, la excitación del usuario se podría medir con el dispositivo, etc.
La experiencia audio / visual básica (de Google) estará disponible el próximo año.
Creo que es aún más interesante pensar en los efectos de un dispositivo de este tipo que no están relacionados con compartir directamente una experiencia. Usando técnicas de procesamiento de imágenes, toda su información visual podría ser buscada semánticamente, quizás incluso por otros.