Para aquellos que han completado un doctorado, ¿en qué hicieron su disertación y cuáles fueron sus conclusiones?

Una célula viva toma decisiones críticas sobre la replicación (reproducción, de la cual hacer ADN o “síntesis de ADN” es un evento clave) en función de su capacidad para obtener alimentos y alimentarse.

De manera similar, las células cancerosas se aprovechan y, de otro modo, secuestran los mecanismos de decisión de sus células huésped para obtener alimento y ser alimentados.

Por lo tanto, podemos buscar formas de combatir el cáncer apuntando a los mecanismos de las células cancerosas relacionados con obtener alimentos, alimentarse y / o los procesos anteriores / relacionados con / que involucran directamente la síntesis de ADN. [También podemos buscar formas de obtener células buenas para matar células malas y células malas para que se suiciden a través de la apoptosis, pero no lo estudié]

Seguramente puede deducir todo esto del título de mi tesis doctoral de bioquímica : ” Estudios bioquímicos comparativos de rapamicina y
Progresión del ciclo celular G1-S mediada por Wortmannin en el factor de crecimiento transformante beta1 (TGF- β1 ) en fibroblastos embrionarios C3H-10T½ . “Alrededor del año 2000.

Específicamente, observé una de las formas en que las células inician el proceso de toma de decisiones cuando obtienen la señal de “buena para crecer” a través de factores de crecimiento. En mi caso estudié un factor de crecimiento llamado TGF-beta-1.

Esto en sí mismo es un poco inusual porque la mayoría de mis compañeros que estudian este mismo factor de crecimiento lo están utilizando como un factor inhibidor del crecimiento, pero lo estaba utilizando como un factor estimulante del crecimiento. ¡Si el mismo factor inicia o detiene el crecimiento depende del tipo de células que está utilizando (dependencia del contexto)!

Las células cancerosas son extremadamente adeptas a engañar a las células normales para que piensen que todo crecimiento es un “avance” y “¡proliferemos todos como si no hubiera un mañana!”

Usted agrega la señal de crecimiento y las células comienzan a traer aminoácidos (de los cuales, uno de los aminoácidos está radiomarcado para que yo pueda rastrearlo) en preparación para la gran parte de la replicación.

Pero si agregó una señal de inhibición (un prometedor fármaco para el cáncer) para contrarrestar la señal de crecimiento, entonces la gran fiesta no se produce y si las células cancerosas no desaparecen, espera que las células de respuesta inmunitaria del cuerpo las desaparezcan. .

Observé cómo uno de los transportadores de aminoácidos responsables de incorporar los aminoácidos que necesitan las células responderá a las señales de crecimiento y las señales de inhibición (medicamentos que detienen el crecimiento). Descubrí que uno de los transportadores de aminoácidos dependientes del ciclo celular (transportador del Sistema A) era muy sensible a las señales de crecimiento y una de las señales de inhibición que estudié. Una vez que identifiqué las señales de “crecer / no crecer” para las células que estaba estudiando, comencé a formular hipótesis (realizar conjeturas semi-salvajes) sobre cómo se hace que esto suceda a nivel de la señal celular.

Tenía una buena hipótesis en curso (para aquellos de ustedes, biólogos celulares, me interesaba ver el eIF2 cuando todos y sus abuelas científicas se aferraron al factor de iniciación eucariótico y estaba observando cómo el TGF-b1 y la rapamicina probablemente se contrarrestaban entre sí en el acumulación neta del factor de iniciación 2alpha) pero decidí que 7 años eran suficientes para ser un estudiante de doctorado hambriento y necesitaba graduarme y conseguir un trabajo y pagar la deuda de mi préstamo estudiantil.

Mi disertación (de 2010) estudió dos aspectos del aprendizaje automático con un enfoque de aplicación principal en la recuperación de información y los sistemas de recomendación. También puede leer este artículo de ciencia popular que escribí sobre la investigación en mi área.

Primero, mi disertación estudió algoritmos de aprendizaje automático para la predicción estructurada , que es el problema de hacer múltiples predicciones conjuntas simultáneamente. Por ejemplo, suponga que un motor de búsqueda o un sistema de recomendación debe recomendarle 10 resultados. Una versión NO ESTRUCTURADA de este problema de predicción sería simplemente devolver los 10 resultados que individualmente tienen el mayor interés / relevancia predicho para usted.

Sin embargo, podría tener sentido recomendar 10 resultados que no solo son relevantes / interesantes, sino también diversos o no redundantes entre sí. Por ejemplo, los dos primeros resultados más interesantes podrían ser muy redundantes entre sí, lo que podría ser algo muy malo dependiendo de cuál sea su aplicación. Es posible que su sistema no quiera recomendar el segundo resultado individualmente más relevante dado el primero. Modelar la relación de redundancia entre recomendaciones es un problema de predicción estructurado . Mi tesis propuso algoritmos de aprendizaje diseñados para estos tipos de problemas de predicción.

En segundo lugar, mi tesis estudió enfoques de aprendizaje automático interactivo para modelar motores de búsqueda y sistemas de recomendación. Los sistemas de información modernos interactúan continuamente con los usuarios, y esos usuarios están brindando implícitamente una gran cantidad de comentarios al sistema a través de estas interacciones. Por ejemplo, hacer clic en una recomendación puede verse como una aprobación de que esta fue una buena recomendación.

Uno de los desafíos para aprender de este tipo de retroalimentación es cómo equilibrar el equilibrio entre exploración y explotación . Por un lado, el sistema no aprenderá (a través de los comentarios de los usuarios) qué recomendaciones son interesantes a menos que realmente las recomiende y vea cómo reaccionan los usuarios; esto es EXPLORACIÓN. Por otro lado, el objetivo final del sistema es hacer posibles las recomendaciones más relevantes o interesantes. Entonces, si el sistema tiene alguna idea (imperfecta) de lo que quiere el usuario, tal vez sea mejor simplemente hacer recomendaciones basadas en eso, esto es EXPLOTACIÓN. Mi disertación propuso algoritmos de aprendizaje que equilibran automáticamente esta compensación sobre la marcha cuando los usuarios llegan al sistema.

Por supuesto, estas dos áreas también han sido estudiadas por muchos otros investigadores. Mi disertación estudió algunos problemas específicos (y con suerte importantes) dentro de estas dos áreas.

Título: Restauración de las capacidades humanas después del castigo: nuestras responsabilidades políticas hacia los estadounidenses encarcelados

Versión de cáscara de nuez:

La narración de la vida es una capacidad humana vital. Como una sociedad marcada por la injusticia criminal y el encarcelamiento en masa, tenemos razones éticas y prácticas convincentes para darles a los prisioneros la oportunidad de cultivarla. Antes de estar listos para invertir, debemos comprender que las personas en nuestras prisiones son conciudadanos y seres humanos, y, de hecho, escuchar sus historias de vida puede ser la clave para llevarnos a ese punto.

Versión descarnada:

Las identidades narrativas – las historias de vida en evolución que nos contamos a nosotros mismos y que nos hacen quienes somos – son un elemento vital del desarrollo y bienestar humano. Aunque damos por sentado nuestras identidades narrativas, no podríamos sobrevivir y prosperar en el mundo adulto sin ellas.

Sin embargo, no todos tenemos el mismo acceso a los bloques de construcción cognitivos, emocionales y sociales / culturales que forman una identidad narrativa en toda regla. En particular, las personas que nacen con discapacidades mentales y las que nacen en entornos caóticos / privados tienen problemas para adquirir estos elementos básicos. Dado que ciertas formas de identidad narrativa se correlacionan fuertemente con diversas medidas de bienestar (estabilidad psicológica, salud física y éxito social), podría decirse que la oportunidad de desarrollar una identidad narrativa es una cuestión de justicia social.

Un número alarmante de nuestros prisioneros nacieron en los hogares y vecindarios más desfavorecidos de nuestro país. La mayoría eventualmente regresará a la comunidad libre. Si nosotros, como sociedad, queremos que tengan éxito, debemos asegurarnos de que tengan las herramientas para mejorar sus perspectivas de vida. Más allá de garantizar que se satisfagan sus necesidades físicas básicas, tenemos razones convincentes para brindarles oportunidades para cultivar sus identidades narrativas de manera redentora. La ciencia ha demostrado que, incluso para los adultos, no es demasiado tarde para recoger algunos de los bloques de construcción que se perdieron en la infancia.

¿Qué nos impediría, como sociedad, invertir en los programas y políticas necesarios para que esto suceda? Compromisos ideológicos al castigo, falta de simpatía personal, miedo político. ¿Qué podría ayudarnos a atravesar estas barreras? Amor y comprensión. ¿Cómo podríamos cultivar estas virtudes? No a través de la ley, los datos o la lógica económica [solo], sino a través de narrativas bien elaboradas.

Por lo tanto, en la búsqueda de la justicia social, la narración de la vida es tanto un medio como un fin.

Demasiado, solo veamos un video: 2014 Pappalardo Fellowships in Physics Dra. Inna Vishik (Esta es una presentación de la audiencia general sobre una parte de mi investigación de doctorado)

Breve resumen: Estudié la dependencia del dopaje de las excitaciones de baja energía en superconductores de alta temperatura de cuprate utilizando espectroscopia de fotoemisión de resolución de ángulo (ARPES).

Motivación:
Los superconductores de alta temperatura de Cuprate son superconductores (resistencia cero) a temperaturas de nitrógeno líquido, que es básicamente la temperatura ambiente desde el punto de vista de las personas que trabajan con productos criogénicos más graves. Siguen siendo un área activa de investigación porque el mecanismo de la superconductividad de alta temperatura todavía se debate (ver: Respuesta de Inna Vishik a la superconductividad: ¿Cuáles son las últimas teorías sobre la superconductividad de alta temperatura? Con la advertencia de que no soy un teórico). Una razón por la cual una solución integral elude a los físicos es porque estos materiales son complicados. Hay mucho más allá de la superconductividad.
El diagrama de fase anterior muestra algunas de las cosas que suceden a medida que las propiedades de los cupratos se ajustan mediante el “dopaje” (cambio del número de portadores de carga. Algunos de los nombres dados a las regiones de la fase, como “metal extraño” y “pseudogap” ‘enfatiza lo mucho que todavía tenemos que aprender.

Experimentos
La espectroscopia de fotoemisión con resolución de ángulo (ARPES) mide la estructura electrónica de un material en el espacio-momento (consulte: La respuesta de Inna Vishik a ¿Qué tipo de información cuantitativa y cualitativa se puede obtener de ARPES?). Es una técnica experimental que es muy adecuada para el estudio de los superconductores de alta temperatura de cuprate porque los cuprates son casi bidimensionales y tienen una importante anisotropía de espacio en su estructura electrónica. En mi investigación de doctorado, aproveché una mejora reciente en la tecnología experimental: el uso de láseres ultravioletas de ancho de banda estrecho como fuente de luz para los experimentos ARPES. Esto me permitió tomar datos más rápido y con mayor precisión, una mejora simultánea en la calidad y cantidad de datos. Y así es como funciona a menudo la ciencia. La nueva tecnología impulsa nuevos descubrimientos.
El cristal no lineal (rectángulo brillante entre prismas) donde se produce la luz UV. Imagen de ARPES | Laboratorio de shen

Encontrando el # 1:
La velocidad de Fermi, o equivalentemente, la masa efectiva tiene una dependencia de dopaje, mientras que anteriormente se pensaba que era independiente del dopaje. Aunque la dependencia dopante de la masa efectiva en realidad es bastante pronunciada, esto no se observó antes debido a la resolución más deficiente de los experimentos anteriores. La masa efectiva tiene implicaciones para la interpretación de datos termodinámicos y de transporte, por lo que este es un resultado importante, y también el que más me enorgullece / confía.
Encontrando el # 2:
Los cupratos son un campo relativamente maduro, por lo que la época de los ciegos que estudian diferentes partes del elefante ha terminado en gran parte. Por lo tanto, realicé uno de los estudios ARPES más completos hasta la fecha, abarcando gran parte del diagrama de fase.
Muchas fases ordenadas, como la superconductividad y el orden de onda de densidad de carga, tienen una brecha asociada en la densidad electrónica de los estados. La magnitud y la fenomenología (dependencia de la temperatura, dependencia del dopaje, dependencia del momento) de esta brecha proporciona información sobre la fase electrónica que causa la brecha. Una complicación importante en los cupratos, de la que nos dimos cuenta en los últimos años, es que otras fases electrónicas coexisten con la superconductividad, como se ilustra en el diagrama de fases. Por lo tanto, cuando uno observa una brecha espectral en el estado superconductor, no pueden estar seguros de cuánto se debe a la superconductividad y cuánto se debe a otra cosa. En mi investigación, presenté contribuciones de diferentes fases electrónicas basadas en su fenomenología distinta. Además, observé pruebas de potencialmente dos puntos críticos cuánticos en el diagrama de fase, que pueden apuntar a un origen común de superconductividad en cuprates y otros tipos de superconductores no convencionales.

Mi tesis fue sobre redes viales. Mostré la siguiente propiedad de las redes de carreteras:

Los caminos más cortos en las redes de carreteras tienen “coherencia de camino espacial”. Esto significa que dos personas que comienzan en el mismo vecindario y van a destinos cercanos generalmente terminan tomando las mismas carreteras.

Otra forma de decir lo mismo es: alguien que comienza desde DC y otro desde Virginia, uno que va a Florida y el otro a Georgia terminan tomando I-95S.

Más técnicamente, si un conjunto de fuentes y un conjunto de destinos en una red de carreteras están “suficientemente alejados” entre sí, las rutas más cortas entre ellos comienzan a usar el mismo conjunto de vértices.

La implicación de “coherencia espacial” significa que ahora puede calcular previamente y almacenar todas las rutas más cortas en una red de carreteras y que esta representación precomputada se puede comprimir significativamente usando las posiciones espaciales de las fuentes y los destinos. Teóricamente demostré que la representación resultante puede ser lineal en el número de vértices y lo mostré para unos pocos casos pequeños.

Armado con la representación, puede consultar las rutas y distancias más cortas de la red de carreteras en unos pocos microsegundos. Escuché que los servicios de mapas usan “precomputaciones” para hacer que sus servicios sean de escala web. Me gusta pensar que usan alguna parte de mi tesis o pueden no ser 🙂

Mis conclusiones? Probablemente hice algo que la gente probablemente sabía, pero nunca escribió un artículo al respecto. Obtuve algunos premios por mi tesis, obtuve un doctorado, luego muchas personas escribieron muchos documentos de seguimiento y terminaron obteniendo sus doctorados también …

Mi PhD, en Lingüística de la Universidad de California en Berkeley, se titula Opacidad controlada por entrada .
Puedes descargarlo y leerlo aquí, Página de Investigación. *

* – No lo recomendaría necesariamente

The one-liner: Mi disertación mostró que las representaciones mentales abstractas son necesarias para el aprendizaje y la representación de un cierto tipo de patrón de sonido en el lenguaje mediante el uso de una combinación de experimentación psicológica, modelos teóricos y un estudio de las lenguas del mundo.

Resumen
Mi disertación tenía 3 partes, todas centradas alrededor de un patrón interesante en el lenguaje llamado Opacidad fonológica (que aparentemente es de interés general suficiente para justificar una entrada de wikipedia – ¡noticias para mí!). La opacidad fonológica es cuando tienes alguna regla con respecto a la forma en que los patrones de sonidos se combinan en un lenguaje que parece ser constantemente violado de alguna manera. Me encantaría dar algunos ejemplos en inglés, pero no son muchos, es más típico del lenguaje tonal, por ejemplo, pero aquí hay uno que funciona:

En inglés, las vocales cambian un poco antes de las consonantes sonoras. Entonces, compara las vocales en escritura versus paseo . Son ligeramente diferentes (aunque no categóricamente). De manera crucial, este es un dato que los hablantes de inglés internalizan tanto en producción como en comprensión y que es específico del inglés en sí mismo (¿Cuáles son algunas reglas del idioma inglés que los hablantes nativos no conocen pero siguen?).

Entonces, ahora, ¿qué sucede cuando añades -er a estas palabras? Obtiene un escritor y un piloto con otra regla – t / d- aleteo interactuando con el cambio de vocal. La diferencia de vocales todavía está allí, pero la regla que aprendiste anteriormente parece ser violada. Tienes una vocal tanto larga como corta ante un sonido que suena como una consonante sonora (la aleta). Esto parece que debería ser raro y estar marcado (¿Se han realizado estudios para determinar si existe un “costo” fisiológico para diferentes idiomas?) Y no es óptimo porque es difícil de aprender y difícil de desvelar.

Parte I: Tipología
Capítulo 1: La lógica de la opacidad:
La primera parte de mi disertación examinó qué tan (en) frecuente es este tipo de patrón en el lenguaje del mundo. Lo que encontré es que es algo raro, pero no tan raro, particularmente con los lenguajes de tono y la armonía vocal. De hecho, parece ser el caso que con el tono y la armonía vocal, este es el patrón preferido, la forma preferida en que interactúan las dos reglas. Que la entrada a las reglas es lo que realmente impulsa la salida.

Este es un gran problema para la teoría fonológica moderna, la teoría de la optimalidad, que es el resultado o el resultado.

Parte II: Formalización.
Capítulo 2: Teoría de la correspondencia diagonal
Esto nos lleva a la segunda parte de mi disertación, que buscó modelar formalmente esta generalización y observación.


Este es un elemento clave de mucha investigación lingüística donde el objetivo es establecer un formalismo que pueda modelar con precisión los fenómenos del lenguaje. Piénsalo de esta manera: las matemáticas y la fórmula de Newton,
Es una forma precisa de modelar la gravedad y el movimiento de los planetas. Los lingüistas quieren hacer lo mismo con el lenguaje.

Entonces, propuse lo que pensé que era una forma inteligente de modelar este fenómeno en el amplio formalismo actual de la teoría de la optimalidad. Se llama Teoría de la Correspondencia Diagonal. Pero no lo he publicado directamente y realmente no he explicado por qué es necesario.

Hice un estudio de caso y modelé la opacidad en Shimakonde, uno de mis idiomas favoritos para pensar. Capítulo 3

Parte III: Evidencia Experimental
Capítulo 4/5: La realidad psicológica de la opacidad.
En última instancia, lo que encontré más interesante y fructífero fue explorar cómo la gente realmente aprendió estas cosas. ¿Puede la gente realmente aprenderlo, o lo fingen? ¿Cómo se aprende? ¿Afecta este proceso de aprendizaje cómo el patrón realmente surge en el lenguaje? Y, finalmente, ¿qué tan abstractas son las cosas que estamos aprendiendo sobre estos patrones de sonido y el lenguaje en general? En el caso del escritor / jinete anterior, por ejemplo, ¿qué es exactamente en su representación mental de escritor?

Para explorar estas preguntas, hice un experimento de aprendizaje de idiomas donde enseñé a las personas una versión modificada de Shimakonde y examiné lo que aprendieron. Descubrí que las personas realmente aprendieron estos patrones y parecían tener representaciones mentales abstractas de las palabras que aprendieron.

Posteriormente, exploré cómo esta capacidad de aprendizaje se relacionaba con otras funciones cognitivas y que ha resultado ser una pista de investigación mucho más útil (Variabilidad en el aprendizaje de la morfofonología compleja).

Cuadro grande
¿Por qué nada de esto importa?
La disertación trata de capturar lo que sabemos sobre un pequeño rincón de la amplia gama de cosas que suceden en el lenguaje. Me centré en algo que los formalismos actuales sugieren que realmente no debería existir y que debería ser difícil de aprender. Pero existe y es aprendible. Por lo tanto, sugiere que nuestra representación mental de los patrones de sonido del lenguaje es, en algún nivel, más abstracta de lo que las personas actualmente permiten.

En la práctica, entender cómo se representa mentalmente el lenguaje puede ayudar a comprender cómo la lesión cerebral afecta al lenguaje, como en mi investigación actual y cómo la adquisición del lenguaje progresa en niños y adultos que intentan aprender un segundo idioma.

En contra de la opinión de que la ley judía es un sistema autocontenido que se basa únicamente en fuentes judías, mi disertación sostiene que los textos de la ley judía están impregnados de manera inesperada por discursos morales cristianos y seculares . Además de ofrecer razones teóricas, mi afirmación está respaldada por estudios de casos relacionados con la atención médica al final de su vida útil, el consumo de cigarrillos y un principio rabínico para asumir riesgos.

El título es bastante sencillo: “Características extranjeras en la ley judía: cómo los discursos morales seculares y cristianos permean la halakhah” (Halakhah es una ley rabínica).

¿Es esto suficientemente “lenguaje común” o alguien quisiera una aclaración?

La disertación también desarrolla un modelo para analizar cómo el discurso rabínico está permeado por fuentes no judías, a veces de formas justificadas por la ley judía y otras veces de forma deliberada pero no directa.

Disfruté escribiendo un resumen que usa mucha jerga académica, no un lenguaje común. ¿Pero quizás también disfrutarías esto?

“Este estudio subvierte el ideal convencional de la ley y la ética judías ( halakhah ) como un sistema autocontenido. Avanza un modelo jurisprudencial y una redcripción cultural de halakhah como un discurso permeable, moldeado por mundos normativos cristianos y seculares. Aparte de los préstamos discretos de jurisdicciones soberanas, se espera que la halakhah sea normativamente autocontenida en sus interpretaciones de la literatura rabínica. Para los positivistas legales, halakhah Se conceptualiza como un sistema unificado de reglas y fuentes oficiales. Las prácticas culturales de los judíos ortodoxos y haredi modernos refuerzan este ideal de cierre lingüístico , manteniendo a los extranjeros fuera del discurso halájico. Sin embargo, ni la ley ni el lenguaje son insulares. Los historiadores distinguen los paralelos ad hoc entre la halajá y las características de la ley antigua y medieval. Basándose en la antropología lingüística, esta tesis sostiene que las características paralelas son inevitables y generalizadas: las interacciones del lenguaje tienen implicaciones normativas. Esta hipótesis se pone a prueba a través del análisis del discurso del judaísmo de la diáspora en la América de posguerra, donde la halajá ortodoxa enfrenta controversias públicas sobre la medicina y los riesgos para la salud. Primero, la disertación investiga nuevos géneros rabínicos, en inglés, sobre el cuidado al final de la vida. Immanuel Jakobovits es pionero en una ética médica judía comparada, que triangula los puntos de vista haájicos de la eutanasia pasiva en relación dialógica con la santidad de la vida católica y los principios bioéticos liberales secularizados de la calidad de vida y la autonomía del paciente. Halakhah está formada por el efecto semántico de las alusiones a vocabulario, retórica y conceptos extranjeros. En segundo lugar, la tesis argumenta que los discursos de orientación cristiana impregnan incluso los juicios autorizados del rabino Moshe Feinstein sobre los dilemas del final de la vida. Su responsabilidad de Igrot Moshe se recontextualiza para lectores de habla inglesa a través de la interpretación y traducción de J. David Bleich y Moshe Tendler. En tercer lugar, la disertación pregunta si el razonamiento rabínico absorbe los valores no judíos cuando recoge hechos del discurso tecnocrático. La valencia moral de la experiencia se refleja en la reflexividad judía e israelí a las estrategias legales, la ciencia del tabaco patrocinada por la industria y el discurso de riesgo del debate sobre fumar y salud. En cuarto lugar, una hibridación con elecciones morales no judías se remonta a la genealogía de un principio talmúdico, El Señor preserva lo simple. Este principio hace eco de la construcción sociológica del riesgo. Como contraparte del análisis de riesgo cuantitativo, aplica las preferencias de riesgo no judías a los riesgos biomédicos, ambientales y de salud ocupacional “.

Divertido eh

Mi doctorado es en matemáticas, y más específicamente en teoría de números algebraica. Quizás los principales objetos de estudio en la teoría de números algebraicos son los campos de números. El campo numérico más básico es [math] \ mathbb {Q} [/ math], los números racionales. Las otras son extensiones de [math] \ mathbb {Q} [/ math]: para formarlas, seleccione un polinomio distinto de cero [math] p (x) [/ math] con coeficientes racionales, elija una raíz [math] \ alpha [alpha] / math] de [math] p (x) [/ math], y que [math] K [/ math] sea el conjunto de todos los números que puedes formar desde [math] \ mathbb {Q} [/ math] y [ math] \ alpha [/ math] usando las operaciones de suma, resta, multiplicación y división (pero sin división por 0). Por ejemplo, hay un campo numérico [math] \ mathbb {Q} (\ sqrt {2}) [/ math] que consta de todos los números de la forma [math] a + b \ sqrt {2} [/ math] , donde [math] a [/ math] y [math] b [/ math] son ​​números racionales. Este corresponde a seleccionar [math] p (x) = x ^ 2-2 [/ math] y [math] \ alpha = \ sqrt {2} [/ math].

Ahora, dentro de los números racionales, tenemos los enteros [math] \ mathbb {Z} [/ math]. Hay un objeto similar dentro de cada campo numérico [math] K [/ math], llamado el anillo de enteros del campo numérico. Consiste en todos los elementos de [math] K [/ math] que son raíces de polinomios de la forma [math] x ^ n + a_ {n-1} x ^ {n-1} + a_ {n-2} x ^ {n-2} + \ cdots + a_1x + a_0 [/ math], donde [math] n [/ math] es un entero y las [math] a_i [/ ​​math] son ​​enteros. En el ejemplo anterior, el anillo de enteros consta de todos los números de la forma [math] a + b \ sqrt {2} [/ math] donde [math] a [/ math] y [math] b [/ math] son enteros, pero en otros casos puede ser un poco más complicado que eso.

El anillo de enteros se comporta mucho como los enteros normales, ya que podemos sumarlos, restarlos y multiplicarlos, y todas las reglas usuales como la propiedad distributiva que relaciona esas operaciones aún se mantienen, pero generalmente no podemos dividir dos elementos de un Anillo de enteros y consigue otro. (Por ejemplo, en los enteros no podemos dividir 5 por 3 y obtener otro entero).

Dentro de cada uno de estos anillos de enteros, tenemos números primos, tal como lo hacemos en los enteros. (En realidad, para hacer esto correctamente, no debe considerarse que un número primo sea simplemente un número, sino un conjunto de números, ya que los números primos no se generalizan bien a todos los anillos de enteros, pero no nos detengamos en este punto.) Por lo tanto, una pregunta lógica que debe hacerse acerca de estos anillos de enteros es la siguiente: sea [math] p [/ math] un primo normal. ¿Sigue siendo primordial en el anillo de enteros de nuestro campo numérico favorito?

La respuesta, probablemente no sorprendentemente, es “a veces”. De hecho, hay tres tipos fundamentales de comportamiento que puede exhibir, en varias combinaciones: puede permanecer primordial, puede convertirse en un producto de primos diferentes, o puede convertirse en un poder de una prima. Un poco más precisamente, podemos factorizar [math] p [/ math] en un anillo de enteros como

[math] \ prod_ {i = 1} ^ g \ mathfrak {P} _i ^ {e_i}. [/ math]

En el ejemplo que he dado arriba, solo estas tres cosas pueden suceder exactamente; No se pueden combinar de ninguna manera. Además, puedo decirle exactamente cuándo sucederá cada una de estas tres cosas: si [math] p = 2 [/ math], entonces [math] p [/ math] se convierte en el cuadrado de un primo; si [math] p [/ math] deja un resto de 1 o 7 después de dividir por 8, entonces se convierte en un producto de dos primos diferentes; si [math] p [/ math] deja un resto de 3 o 5 después de dividir entre 8, entonces permanece primo. Todos los números primos tienen una de estas formas, así que esa es una respuesta completa a nuestra pregunta. Sin embargo, no siempre es posible dar una caracterización tan explícita.

Ahora, si observa detenidamente nuestra caracterización, notará que uno de ellos se ve un poco diferente de los demás: solo hay un primo que se convierte en el cuadrado de un primo en el anillo de números enteros de este campo numérico, pero Son familias enteras que exhiben los otros dos tipos de comportamiento. Esto es típico: siempre van a haber solo muchos primos finitos, de modo que, cuando los factorizamos en un anillo de números enteros como arriba, tenemos [math] e_i> 1 [/ math] para algunos [math] i [/ math ]. A tales primos los llamamos ramificados .

Nuestra actitud general hacia los números primos ramificados es que son un poco molestos: son más difíciles de entender que los números primos sin clasificar. Por lo tanto, queremos tener una idea de lo que son. Afortunadamente, hay un objeto que nos da la respuesta: se llama discriminante. Recuerda desde arriba que obtuvimos un campo numérico de un polinomio [math] p (x) [/ math]. El discriminante es un número que podemos obtener de los coeficientes de [math] p (x) [/ math]. Es bastante complicado escribir explícitamente de esta forma en general, pero podemos hacerlo en casos de bajo grado. Si [math] p (x) = x ^ 2 + bx + c [/ math], entonces el discriminante es [math] b ^ 2-4c [/ math]; si [math] p (x) = x ^ 3 + ax + b [/ math], entonces el discriminante es [math] -4a ^ 3-27b ^ 2 [/ math]. El punto del discriminante es que todos los números primos ramificados dividen al discriminante. (Es posible que haya números primos que dividan el discriminante que aún no está estructurado, por lo que en realidad hay una mejor versión del discriminante que se deshace de ellos. Pero es más complicado de definir).

Entonces, esto parece una buena noticia, ya que tenemos un objeto que nos dice cuáles son los números primos malos para que podamos vigilarlos. Pero el problema es que usualmente hay números primos muy grandes que dividen al discriminante. Entonces, ¿qué sucede si queremos buscar campos numéricos cuyos primos ramificados sean pequeños? Por ejemplo, tal vez queremos permitir que se ramifiquen 2, 3 y 5, pero queremos que todos los números primos más grandes estén sin ramificar.

Ahora, es realmente difícil hacerlo al elegir los coeficientes de [math] p (x) [/ math] correctamente, porque ¿cómo se supone que debemos saber si alguna expresión complicada que involucra los coeficientes es divisible solo por números primos pequeños? Esto es muy dificil.

Entonces, en cambio, tenemos que buscar formas más inteligentes de buscar dichos campos numéricos. Hay algunos lugares en matemáticas donde tienden a aparecer, así que para encontrarlos, tenemos que minar profundamente en esos lugares. Mi enfoque para encontrarlos se basó en mirar mapas entre curvas algebraicas, ya que hay teoremas que nos dicen cómo los campos numéricos pueden surgir de los mapas entre curvas. Pero primero, hablemos sobre qué son los mapas entre curvas.

Una curva algebraica, aproximadamente, es el conjunto de soluciones de un polinomio en dos variables. Un ejemplo de una curva algebraica es el conjunto de soluciones de la ecuación [math] y ^ 2 = x ^ 3 + x + 1 [/ math], y una imagen puede verse algo como esto:
Esta curva particular se llama una curva elíptica.

Ahora, si tengo dos curvas [math] C [/ math] y [math] D [/ math], entonces un mapa entre ellas es una función que toma un punto en [math] C [/ math] y devuelve un punto en [math] D [/ math]. Pero no queremos considerar cualquier función; después de todo, restringimos nuestra definición de curva a una que proviene de una ecuación polinomial. Entonces, realmente nos gustaría que el mapa estuviera basado en polinomios. Pero en realidad, seremos un poco más generosos y permitiremos que se defina mediante funciones racionales, que son cocientes de polinomios.

Ahora, no puedo simplemente escribir funciones racionales aleatorias para definir un mapa: si uso aleatorias, comenzaré con un punto en [math] C [/ math], pero eso no me dará retroceder un punto en [math] D [/ math] la mayor parte del tiempo; Irá a otro lugar en el avión. En general, ¡es un problema extremadamente difícil escribir mapas entre curvas! Sin embargo, hay teoremas generales que nos dicen cuándo deben existir; Simplemente no nos ayudan a escribirlos. Y necesitamos saber exactamente qué son para tener la esperanza de encontrar nuestros campos de números amigables, o incluso garantizar que existan. (La pregunta de existencia en el lado del campo numérico es mucho más delicada que en el lado de la curva algebraica, pero estoy decidiendo que las razones para eso están más allá del alcance de esta publicación de quora).

No creo que quiera entrar en más detalles sobre lo que hice para construir algunos mapas entre curvas, pero basta con decir que trabajé algunas técnicas para hacer esto en ciertos casos y que pude encontrar algunos ejemplos interesantes

Un aspecto curioso de este proyecto es que, una vez establecido, mis teoremas son triviales de probar: uno solo tiene que comprobar que las funciones que escribo realmente envían puntos en una curva a puntos en otra curva (y algunas propiedades técnicas adicionales). ), y esto básicamente equivale a verificar que dos polinomios sean iguales una vez que hayamos escrito todo. Pero las pruebas de estos teoremas no dan ninguna pista de dónde provienen todas las funciones que he escrito. Por lo tanto, todo el trabajo duro consiste en descubrir cuáles son las afirmaciones correctas. Y para eso realmente tenemos que sacar todas las paradas y usar técnicas de todas las matemáticas. ¡Fue muy divertido!

Obtuve mi PhD de UC Berkeley en 2011. Mi campo de estudio fue en Diseño de Sistemas Electrónicos. Específicamente, mi tesis fue sobre cómo componer de manera confiable sistemas electrónicos integrados a partir de componentes de circuito de señal mixta y analógicos.

La motivación se deriva de la creciente demanda de que los dispositivos electrónicos estén profundamente conectados al mundo físico para aplicaciones tales como computadoras portátiles, redes de sensores, Internet de cosas, biosensores, etc., todos los cuales requieren un circuito analógico / RF / señal mixta. componentes para traducir señales del mundo real en bits digitales para ser procesados ​​por núcleos de cómputo, y viceversa.

El problema es que en la actualidad, la mayoría de los circuitos integrados analógicos y de señales mixtas aún están diseñados a mano por diseñadores de circuitos experimentados, aplicación por aplicación. Los circuitos integrados analógicos, a diferencia de sus contrapartes digitales, son extremadamente sensibles a su entorno operativo. Sin las condiciones adecuadas de carga y carga, como lo anticipó el diseñador del circuito, el rendimiento del componente no se puede garantizar o simplemente no funciona. Esto limita la posibilidad de bibliotecas estándar y reutilización de componentes, lo que revolucionó el diseño del circuito digital. Esta es la razón por la que muchos de los sistemas de señal mixta / RF todavía utilizan componentes discretos conectados en una PCB para separar claramente las funciones de RF, analógicas y digitales. Esto limita tanto la escala como el costo de fabricación. Al igual que con los circuitos digitales, una mayor integración de los circuitos de señal mixta puede aumentar dramáticamente la escala y disminuir los márgenes de costo. Sin embargo, sin la reutilización de componentes, el costo de ingeniería no recurrente (NRE) es muy alto para que las empresas diseñen chips de señal mixta integrados para cada aplicación individual.

Mi tesis exploró la posibilidad de establecer un marco formal para componer y reutilizar de manera confiable componentes analógicos / mixtos previamente diseñados a nivel del sistema y explorar automáticamente el espacio de diseño del sistema compuesto. Mi trabajo se basó en el uso de modelos estadísticos (máquinas de vectores de soporte) para caracterizar el rendimiento y los espacios operativos de varias topologías de circuitos, lo que nos permitió capturar un espacio de diseño continuo para explorar a nivel del sistema. Para componer de manera confiable los modelos caracterizados, establecí un marco de razonamiento de suposición-garantía para componentes de circuitos analógicos. En pocas palabras, cada componente se caracteriza por un conjunto de condiciones de operación supuestas y prestaciones de circuito garantizadas. Para que un sistema se componga de manera confiable, las condiciones de suposición de todos los componentes deben ser satisfechas por el desempeño garantizado de los componentes vecinos. Si se satisface tal condición, entonces podemos estimar con confianza el rendimiento del sistema compuesto en función del rendimiento de los componentes subyacentes, así como propagar el diseño óptimo del sistema a los componentes individuales. Este enfoque se demostró a través de la composición automática de una cadena de receptores de banda ultra ancha completa, optimizada utilizando diferentes funciones de costo de diseño del sistema.

Los resultados de mi trabajo mostraron que, de hecho, era posible explorar de forma automática y confiable el espacio de diseño de un sistema electrónico de mezcla mixta integrado con un alto nivel de abstracción, al tiempo que garantizaba la precisión de rendimiento del sistema compuesto con un 10% de error Comparado con las simulaciones de circuito de nivel SPICE del sistema compuesto. Esto sienta las bases para un diseño a nivel de sistema y una metodología de integración para sistemas electrónicos de señal mixta, que mejoraría en gran medida la productividad del diseñador y disminuiría los costos de NRE a través de la reutilización de componentes.

En común oneliner: estudié danza nuclear y política.
Las relaciones entre una sola partícula y muchas otras en el sistema más complejo y hermoso del universo.
Así, considerando cómo los caminos de los muchos afectan el camino de los pocos, y viceversa en el núcleo atómico.

En palabras de practicante : estudié la superfluidez nuclear desde un punto de vista teórico.

En palabras sencillas: toda la materia está compuesta de átomos, en lo profundo de los átomos está el núcleo atómico , denso, realmente denso (más de miles de millones de billones de cada material, ya que la materia está compuesta por … bueno … principalmente por vacío) y tremendamente energético.
Un número variable (de 1 a 300) de protones y neutrones (colegialmente llamados nucleones), las partículas que forman los núcleos, a menudo se empaquetan tan estrechamente que el nucleón promedio apenas tiene espacio para él. Sin embargo, el entorno es tan energético que los nucleones pueden girar y rebotar y abarcar todo el núcleo miles de millones de billones de veces en un segundo.
A pesar de que los núcleos se han descubierto hace 100 años y se han estudiado ampliamente desde entonces y se han aplicado sus propiedades, consisten en un sistema tan exótico que todavía está lleno de misterios .
Uno de ellos es la superfluidez nuclear: se observa que, como los átomos en un superfluido y los electrones en los superconductores, los nucleones se acoplan en pares limitados. Estos pares son los bloques de construcción de la superfluidez y su existencia desencadena algunas de sus propiedades como: movimiento (o corriente) sin fricción (o sin resistencia), formación de vórtices y respuesta rara a campos externos. Estos efectos han sido observados y aceptados por la comunidad (a excepción de los vorteces nucleares que aún están en debate, ya que los núcleos son tan pequeños que es difícil de observar ), pero el origen de la fuerza que une a los dos nucleones como amantes, incluso en tales condiciones extremas (siempre recuerdo a Paolo y Francesca de Dante’s Comedia), todavía no se conocen . Esto se refleja también en nuestra incapacidad para calcular exactamente la probabilidad de ciertas reacciones que involucran la transferencia de más de un nucleón (secciones transversales de transferencia para los profesionales), una manifestación de la “respuesta extraña a los campos externos”.

Así que quise encontrar cuál es el origen de la fuerza de emparejamiento.

Más aún, eso se pone en el marco de una imagen más general que quería explotar en mi doctorado: en general, los cálculos de las propiedades nucleares no son, por mucho, tan confiables para algo que se estudia durante 100 años (los errores en las energías de excitación aún son mayores de 30 años). Si no está específicamente sintonizado, por no mencionar las probabilidades de reacción, hay algo sospechoso en la imagen.

Digamos que hay dos escuelas de obstáculos con respecto a la fuerza de emparejamiento (y la descripción del núcleo en general):

  • Feel the Force: la fuerza nuclear fuerte es, en última instancia, uniendo los núcleos, por lo que debe estar en el origen de todos los comportamientos de los núcleos, incluida la superfluidez. Todas las incertidumbres sobre las propiedades nucleares son un reflejo de las grandes incertidumbres que tenemos en nuestro conocimiento de la fuerza fuerte entre los nucleones.
  • Siente el partido: los núcleos son muchos, cada uno interactuando con todos los demás. Entonces, uno puede apostar a que sus propiedades no son una cuestión de la fuerza original que los une, sino que se deben al hecho de que estos tipos son muchos y se comportan de una manera coherente. La diferencia entre las representaciones y los tecnicismos de las fuerzas está manchada por el hecho más importante y evidente de que la interacción en un entorno tan extremo es diferente a la interacción en el vacío. Así, la superfluidez nuclear es una manifestación de este orden en el caos, como lo es para la superfluidez atómica y electrónica: la fuerza en el vacío entre los electrones es obviamente la fuerza repulsiva de Coulomb, pero forman pares unidos debido a la interacción con el medio en el que flotador.

La primera escuela es mucho más seguida (y financiada), pero decidí seguir con la segunda. Encontré mucha más solidez que la red de conexiones es al menos tan importante como las propiedades individuales de una sola conexión y que son fundamentales para describir un sistema de este tipo. Además, muchas personas ya han estudiado las propiedades de los solteros, por lo que, aunque es un don importante y necesario, no hay necesidad de que haya otras ovejas en el rebaño.

Así que procedí de dos maneras (y aquí va un poco técnico):

  • De arriba a abajo : miré de propiedades generales y simetrías de superfluidez. Los modelos antiguos describían la superfluidez nuclear como una rotación y vibración en un espacio hipotético, llamado “espacio de medición” donde se presenta el número de partículas. Agregar y eliminar partículas al sistema corresponde a rotar en este espacio, y agregar o eliminar energía al sistema puede describirse como vibrador. Así que ahora podemos considerar este nuevo sistema que vive en este extraño espacio, y tenemos una nueva herramienta para explorar su naturaleza. Las características muy generales de la naturaleza son la simetría, y el hecho de que para romper una simetría necesita una “carga” (esto, para los profesionales, se llama teorema de Noether) y la carga en este caso es la energía de emparejamiento. Por lo tanto, tenemos una herramienta geométrica para, en general, tener una medida de las características que queremos describir .
  • De abajo hacia arriba : describiendo microscópicamente el sistema, quería probar en detalle las contribuciones. Los sistemas nucleares generalmente se describen en detalle dividiendo las excitaciones de un solo nucleón , representándolo como saltando a otras trayectorias, a partir de las excitaciones colectivas de un sistema en su conjunto, como las vibraciones de la superficie. El hecho en sí mismo de que las excitaciones se pueden dividir fácilmente en estas dos macrocategorías es un ejemplo notable de cómo surge el orden del caos extremo en el sistema nuclear, y me parece una indicación de la importancia que tienen estos efectos de muchos cuerpos para definir. Las propiedades nucleares y cómo pueden mantener a raya una interacción extraña y difícil como la fuerza fuerte. Necesitaba algo que pudiera describir ambos con coherencia y entrelazar los dos “grados de libertad” (partícula colectiva e independiente). Esto se hace en otros contextos utilizando una entidad Física / Matemática llamada Funciones de Green, y me pareció muy conveniente aplicarla también en este contexto para que coincida con las dos descripciones. Así que con esta poderosa herramienta me embarcé en la búsqueda de adaptar el formalismo de las Funciones de Green a mi caso de estudio y extendí la teoría detrás de él. Ahora había construido mi herramienta que podía, por primera vez, permitir el estudio del detalle de la fuerza de emparejamiento de forma consistente con otros observables, y así poner a prueba mi teoría e intuición al hornear algunos números y compararlos con experimentos.

En todo el proceso tuve que desarrollar varios programas de computadora para hacer los cálculos necesarios (se necesitan millones de operaciones para una descripción lo suficientemente precisa y se necesitan varias iteraciones entre los cálculos y el refinamiento de la teoría en el trabajo diario). Para darles una idea a los practicantes de la codificación, los programas de trabajo desarrollados por mí tienen en total alrededor de 10 mil líneas de código , de las cuales 6 mil son el cálculo de las Funciones de Green del comportamiento microscópico del núcleo. Obviamente, utilizo programas y modelos de otras personas para dar la información necesaria sobre la estructura.

El resultado que encontré en diferentes casos fue que, de hecho , las propiedades del medio de muchos cuerpos , por lo que la contribución dada por “ser muchos” independientemente del tipo de fuerza involucrada, son explicaciones de las diversas excitaciones de los núcleos (partículas colectivas, independientes y superfluidez). ) de manera consistente y mejorando el acuerdo con el experimento en esta materia. Con la colaboración de un investigador increíblemente bueno , pudimos analizar y predecir, en muchos casos, dos secciones transversales de transferencia de partículas (probabilidades de reacción) dentro de los errores experimentales, antes de que los cálculos teóricos del estado de la técnica superen (o subestimen) por doble o más y fueron capaces de dar cuenta del orden de magnitud.

Con respecto a la superfluidez , aunque el efecto se puede explicar por la fuerza fuerte en sí, encontré una imagen más compleja (y muy interesante) donde la fuerza en sí está protegida por la presencia de tantas partículas empaquetadas en un espacio pequeño, pero mientras tanto Todo el sistema viene al rescate, generando una fuerza adicional por el movimiento colectivo. El single cuenta menos, el ensamble cuenta más.

Al final, apoyé la teoría según la cual el hecho de que “cosas” se coloquen en un sistema e interactúen en conjunto es más importante que lo que es “cosas” y cuál es la interacción . Pueden ser núcleos, pueden ser átomos, pueden ser electrones en aislantes; ¡Y es sorprendente cómo un sistema tan diferente, con componentes millones de veces más grandes o más pequeños y fuerzas de unión diferentes millones de veces más fuertes o más débiles (incluso interactuando o repulsivo), puede comportarse de manera similar!
Las propiedades de los conjuntos son más importantes que las propiedades del single , y quizás (quizás) esto funcione también para otro sistema más grande y más complicado.
Y quién sabe … tal vez estoy soñando despierto … pero tal vez todas las personas puedan aprender algún día que los conjuntos cuentan más que el único …

PD: Si desea saber más sobre mi investigación, puede consultar las versiones gratuitas de mis publicaciones aquí:
http://arxiv.org/find/all/1/all:…
y aquí:
http://arxiv.org/abs/1107.0251
La versión del grande sobre directamente la superfluidez nuclear.
Aquí está mi tesis (breve, pero mantenga el material publicado): http://air.unimi.it/handle/2434/
Ten cuidado, muchos de estos son MUCHOS técnicos.

Cuando estaba en la escuela de posgrado en psicología, el nombre principal en investigación sobre niños era Jean Piaget. Tomé una idea de Piaget (quien realizó la mayor parte de su investigación al estudiar intensivamente a sus tres hijos) y la convertí en un estudio de investigación al estilo estadounidense sobre muchos niños.

Piaget dijo que todos los niños comienzan la vida en una etapa “egocéntrica”. No quiso decir emocionalmente egocéntrico (aunque eso también podría ser cierto). Quiso decir cognitivamente egocéntrico. Es decir, todos los procesos de pensamiento en los niños pequeños fluyen de ellos mismos como si cada uno de ellos fuera el centro del mundo, luego a otras personas, como si otras personas fueran extensiones de sus procesos de pensamiento.

En mi estudio, mostré imágenes a niños de diferentes edades, de unos 5 a 8 años. Cada niño se sentó en una mesa con otro niño o un adulto sentado frente a ellos.

Le pregunté a cada niño: “¿Cuál está más cerca de ti, la parte inferior de la imagen o la parte superior de la imagen?” Después de que el niño respondiera esa pregunta, le pregunté: “¿Ves al niño (o adulto) sentado frente a ti? ¿Cuál está más cerca de esa persona, la parte superior de la imagen o la parte inferior de la imagen?”

La mayoría de los niños más pequeños informaron que la persona que estaba sentada frente a ellos vio la imagen de la misma manera que la vio, arriba o abajo, más cerca de ellos. Poco a poco, con la edad, los niños aprendieron que las personas sentadas en diferentes lugares ven diferentes orientaciones de los objetos que ven. A los 8 años de edad, la mayoría de los niños comprenden que si la parte inferior de la imagen está más cerca de ellos, la parte superior de la imagen es más cercana a la persona que está sentada frente a ellos.

Es menos probable que los niños informen la orientación correcta de los objetos que ven si están tratando con otros niños que si tratan con adultos. Antes en la vida reciben el mensaje de que los adultos son diferentes. Informan que otros niños ven el mundo de la misma manera que lo hacen, sin importar dónde se encuentren los otros niños.

Mi tesis involucraba a niños que veían objetos físicos. Ahora transpone este problema en la orientación de los adultos y las ideas. La mayoría de los adultos comprenden que las personas en diferentes lugares ven los objetos físicos de manera diferente que los objetos físicos. Pero muchos, muchos, muchos adultos no comprenden que las personas en otros lugares no ven las ideas (conceptos, objetos no físicos) de la forma en que ven las ideas.

Hice un doctorado en matemáticas sobre el tema del estudio matemático de histéresis . La histéresis en sí misma es un fenómeno que ocurre frecuentemente en la naturaleza, por ejemplo, en el electromagnetismo o en la plasticidad. Pero una imagen muy simple de lo que se trata es la siguiente:

Piense en un termostato que se calienta cuando la temperatura de la habitación está por debajo de los 18 grados y que deja de calentarse cuando está por encima de los 21 grados (todo en la escala Celsius;)). Entonces, lo que esencialmente ocurrirá es que si comienza, por ejemplo, en una habitación que está a 25 grados, la calefacción se apagará y luego la habitación se enfriará cuando llegue a 18 grados, la calefacción continuará y la habitación se calentará y luego se calentará. Cuando llegues a 21 nuevamente, la habitación se enfriará. Ahora, si solo sabe que es de 20 grados, no puede decir si la calefacción está encendida o apagada, lo que necesita saber es el historial , es la habitación en el período de enfriamiento o de calentamiento.

Dicho esto, hay un par de sistemas en los que realmente ocurre ese tipo de comportamiento y hay algunos operadores prototípicos. En la primera parte de mi PhD trabajé en un tipo específico de operador llamado ” operador de juego ” (los matemáticos son personas lógicas: identificar menos el operador de juego es el operador de parada). De todos modos, una manera de imaginar lo que hace el operador del juego es la siguiente. Usted pone una pasa o una pequeña piedra en una mesa. Luego pones una forma de pastel (o vaso) boca abajo sobre ella. Y, básicamente, lo que hace el operador del juego es determinar el movimiento de la pasa a partir del movimiento de la forma de la torta (en condiciones muy ideales, pero sirve como una buena imagen). Básicamente, cuando la pasa no toca los límites, puedes mover la forma de la torta de cualquier manera y no pasa nada. Y cuando la pasa toca el límite, al menos ocurre algún tipo de movimiento. Y ese sistema realmente tiene (en un sentido abstracto) propiedades similares a las del termostato.

Así que ahora la imagen se vuelve un poco más complicada: a los matemáticos les gusta generalizar las cosas y hay dos maneras que consideré: primero, la forma de la torta (por así decirlo) puede cambiar su forma. Piense, por ejemplo, en las nuevas formas de pastel a base de silicona. Si no es una pasa sino una piedra pesada, la forma de la torta cambiará de forma cuando la piedra se encuentre con el límite.
Para la otra generalización, la analogía finaliza, ya que se trataba de movimientos no continuos de la “forma de torta”, es decir, básicamente salta instantáneamente de una posición a otra. (Considerando que para la forma de pastel que suena estúpido, tiene cierta relevancia en otras aplicaciones).

De todos modos, lo que mostré fue que en realidad existe una noción de solución para este problema generalizado, siempre que los saltos no sean demasiado grandes (+ algunas otras suposiciones técnicas). Enlazar

La segunda parte es en realidad un poco más difícil de explicar. De nuevo, se trata de saltos; básicamente, la razón es que los sistemas con histéresis tienden a “saltar” y luego las cosas se complican porque las ecuaciones diferenciales necesitan soluciones suaves (es decir, funciones diferenciables) como soluciones. Lo que hice en esa parte junto con dos coautores fue considerar la pregunta: si coloca un término “suavizado” en la ecuación para que tenga una solución diferenciable y luego deje que ese término se vuelva arbitrariamente pequeño, ¿qué sucederá? La razón detrás de esto es la siguiente: si el término se vuelve pequeño, la velocidad con la que la solución atraviesa un área determinada aumenta , lo que realmente puede mostrar, y en el límite asume que va al “infinito” y, por lo tanto, a la ecuación. tiene un salto . Y lo que probamos fue un resultado de una naturaleza más teórica, que decía que cualquier punto límite (y en realidad el punto límite es una función, como lo hacemos en el proceso límite en un espacio funcional) tiene que satisfacer algunas propiedades distintas. (También en el camino probamos algunos otros resultados de convergencia que se incluyen en el tema general de estabilidad, que también son interesantes, pero que no forman parte de por qué estudiamos la pregunta) .arxiv

Puede preguntar, ¿por qué es la segunda parte de cualquier interés. La razón es que lo que los matemáticos en realidad no saben es qué tipo exacto de ecuación están buscando en el caso del salto. El tipo de pregunta es: ¿Cuál debería ser la ecuación? Y en ese sentido, contribuimos diciendo que, si asume que los saltos provienen de este enfoque de “velocidad infinita”, tenemos algunas reglas básicas que la ecuación debe satisfacer .

Lo que en mi opinión fue especialmente bueno acerca de lo que hicimos, fueron los métodos que utilizamos. Combinamos métodos bastante elaborados de otros enfoques diferentes y pusimos algunos de nuestros pensamientos en ello y llegamos a una solución. Y lo que creo es que esta metodología también será aplicable a otros problemas y, por lo tanto, que en sí misma puede haber generado un valor científico.

Mi doctorado, aunque todavía no está completamente redactado, se encuentra en un campo de las matemáticas aplicadas algo relacionado con la astronomía a través de la ley de la gravedad de Newton. El título en la actualidad es La fase geométrica del problema de 3 cuerpos con el momento angular de desaparición .

Por lo general, siento que el título se explica mejor término por término con referencias a gatos, y no voy a ir en orden. Entonces, el problema de los 3 cuerpos es el problema de tres partículas masivas que se mueven bajo fuerzas gravitacionales mutuas. Si ha oído hablar de F = G m1 m2 / r ^ 2, esta es exactamente la ley de fuerza en acción, excepto que cada cuerpo tiene una fuerza que actúa sobre todos los demás cuerpos. Todos estos se suman y la fuerza resultante es lo que afecta la forma en que se mueve el cuerpo. Este es un problema interesante porque mientras el problema de los 2 cuerpos se resolvió en la época de Newton, solo hace un siglo se demostró que no existe una solución en forma cerrada cuando solo se agrega otro cuerpo al sistema. Lo que esto significa es que, aunque existen soluciones, no hay forma de escribirlas en términos de las funciones matemáticas “habituales” de suma, resta, multiplicación, división, exponenciación, logaritmos, etc., con un número finito de términos. La razón de esto es que, en cierto sentido, el espacio en el que existen las soluciones es mayor que el número de cantidades básicas conservadas en el sistema (como el momento y la energía lineal / angular). Por lo tanto, debido a esta diferencia de tamaño, hay espacio para que ocurran soluciones caóticas (es decir, una pequeña diferencia en las condiciones iniciales conduce en última instancia a una exponencial, ¡muy rápida! – divergencia entre las soluciones), hemos descubierto muchas cosas sobre las tres problema del cuerpo, pero tratar de estudiar problemas como este es como tratar de ver a través de una niebla espesa en la oscuridad. Sabes que está lleno de cosas interesantes, pero maldita sea si puedes lograrlo. Henri Poincaré comentó una vez que las soluciones periódicas (que son soluciones que repiten exactamente el mismo movimiento). después de un tiempo) son nuestra única forma de vislumbrar esta niebla (llevando mi metáfora a su descripción). Vamos a recoger soluciones periódicas más tarde.

El impulso angular es lo que puede decirse que tiene un cuerpo rígido si está girando o girando, y no tiene si no lo está. Es una cantidad conservada en algunos sistemas, y esta conservación es la razón por la cual un giroscopio se mantiene estable y puede equilibrarse de maneras interesantes (y es útil para la navegación). Cuando tiene un sistema no rígido (como tres masas puntuales distintas que se mueven bajo gravedad mutua), cada cuerpo puede tener un momento angular relativo a algún punto en un sistema de coordenadas, pero lo que se conserva (si se conserva) es el momento angular total Se obtiene sumando el momento angular de cada uno de los cuerpos juntos. Decir que el momento angular se está desvaneciendo es decir que esta suma es cero.

Finalmente, llegamos a la fase geométrica. En pocas palabras, la fase geométrica es la rotación independiente del momento angular . Es decir, es la rotación que se produce en virtud de la geometría del sistema, y ​​en particular, cómo la geometría cambia con el tiempo. El ejemplo por excelencia de esto (ahora que finalmente llegamos a él) es el gato que se cae y, que se deja caer desde arriba y sin movimiento rotativo (¡sin impulso angular!) Es capaz de girar 180 grados para aterrizar sobre sus pies, al menos dado suficiente Tiempo / altura para completar la maniobra! Pero lo que pasa con la fase geométrica es que solo se puede definir realmente si las formas de inicio y acabado son comparables de alguna manera; aquí es donde retomamos movimientos periódicos de nuevo.

Entonces, lo que realmente estoy viendo son movimientos periódicos del problema de los 3 cuerpos, donde el momento angular total se desvanece (lo que, por cierto, implica que los tres cuerpos se mueven en un plano 2D, aunque en general el movimiento plano es posible incluso sin desaparición momento angular), pero la periodicidad es con respecto a la forma del triángulo formado por los tres cuerpos. Afortunadamente, sabemos cómo hacerlo y, curiosamente, todas las dinámicas fundamentales suceden en términos de la forma en sí; ¡Hay otra ecuación que describe la rotación, dependiendo de las formas y las velocidades relativas en cada instante, pero no toma en cuenta las ecuaciones para nada más!

Otro detalle es que queremos hacerlo para que las colisiones sean “regulares” (es decir, las ecuaciones de movimiento son “suaves”, que en realidad es un término muy sencillo en este contexto). Normalmente, las velocidades de cualquiera de los dos cuerpos se vuelven arbitrariamente altas cuando se acercan arbitrariamente (debido a la 1 / r ^ 2 en la ley de fuerza), pero podemos cambiar las variables y las ecuaciones para que esto no suceda, y luego “Reconstruir” la dinámica en el espacio original. Lo que parece si se produce una colisión es que el par en colisión rebota entre sí con elasticidad perfecta. Es importante hacer esto por dos razones: primero, nos gustaría poder usar computadoras para simular el movimiento, y, debido a que las computadoras son bestias complicadas en las que los números no son realmente números, debemos ser capaces de manejar incluso solo Encuentros cercanos sin colisiones; en segundo lugar, la dinámica en torno a las colisiones no se comprende del todo, y no se conocen muchos movimientos periódicos con las colisiones.

Una gran parte de mi doctorado se ha ocupado de construir herramientas numéricas para hacer todo este trabajo, y aunque hay algunas cosas interesantes que me gustan, son en gran parte técnicas y aburren a cualquier otra persona. Lo divertido viene cuando usamos estas herramientas para identificar movimientos periódicos en la forma del sistema de 3 cuerpos. Como mencioné antes, solo la forma es importante para determinar la dinámica básica, por lo tanto, si no forzamos que el componente rotacional también sea periódico, podemos encontrar órbitas que muestran una fase geométrica: giran aunque el momento angular total sea cero . Que yo sepa, objetos como estos no se han descubierto en masa antes.

Una razón para esto es que la búsqueda de órbitas periódicas se ha basado durante mucho tiempo en la búsqueda de órbitas con simetrías específicas. Una simetría , en general, es cuando se realiza una operación en algo (como girarlo una cierta cantidad alrededor de un punto dado, como una rueda, o reflejarlo a través de una línea dada, como un dibujo de un cuadrado, o muchas otras cosas) ) y la salida de esta operación es la misma que la entrada. La razón por la que las búsquedas en el pasado han ocurrido de esta manera es porque la restricción a ciertas simetrías hace que el espacio de búsqueda sea mucho más pequeño y más comprensible, y podemos descubrir muchos objetos estrechamente relacionados al mismo tiempo de esta manera. Mi búsqueda se realizó sin restricciones de simetría porque no sabemos qué simetrías (o qué carencia de simetría) es responsable de la fase geométrica.

Este último punto es mi punto de investigación actual, por lo que no puedo decirles en este momento qué es eso, pero mientras tanto, en mis resultados han aparecido diferentes tipos de órbitas periódicas, algunas de las cuales, creo, son nuevas. ¡Esto es emocionante!

Finalmente, ¿por qué esto importa? A los astrónomos les importa porque los sistemas de estrellas triples no son infrecuentes. Si bien sería extremadamente raro que tales sistemas tuvieran masas iguales (el caso que estoy estudiando actualmente) o momento angular cero, los movimientos periódicos aquí se pueden “continuar” para otros valores de estos parámetros y, según la perspectiva de Poincaré Hace un siglo, los movimientos periódicos, como cuerdas que se enroscan a través de la niebla profunda, son nuestro único problema en este problema. Al mapear dónde van las cuerdas, dónde se unen, comienzan o desaparecen, y otras propiedades, podemos aprender muchas cosas importantes sobre el problema de los 3 cuerpos; Si sabemos qué movimientos periódicos se encuentran cerca de un sistema triple (por observación), podemos saber algo sobre su destino final sin tener que hacer cálculos costosos, por ejemplo.

Eso y la pura belleza de la investigación.

Actualización: se graduó en abril de 2016. Título final: Fase geométrica y órbitas periódicas del problema de tres cuerpos planares de igual masa con la desaparición del momento angular . Sí, ese es el título completo. El apéndice final, al que llamé “Bestiario de las órbitas periódicas”, contiene 363 órbitas periódicas del problema de tres cuerpos de igual masa con la desaparición del momento angular (mientras que el teorema de que probé funciona para las masas generales, pero las masas, y por lo tanto las simetrías asociadas – deben ser conocidas). Muchas de estas 363 órbitas son conocidas, pero muchas son nuevas. Probé un teorema que nos permite determinar solo a partir de la simetría (por un criterio muy simple) si una órbita periódica del sistema de simetría reducida es absolutamente periódica en el sistema original o (genéricamente) relativamente periódica. Con este teorema, también pude probar que un cierto tipo de órbita concebible no puede existir.

Mi tesis doctoral fue aprobada en 1973. Lo que puedo decir sobre la “vanguardia de la investigación” es que se basó en trabajos anteriores, amplió ese trabajo y fue reemplazado por un trabajo posterior.

El patrón de mi investigación, sin embargo, es un patrón que muchas personas aún siguen.

  • Había un material (dióxido de vanadio)
  • que tenía propiedades interesantes (una transición electrónica de aislante a semiconductor, cuando se calienta un poco por encima de la temperatura ambiente)
  • Traté de entender el origen de esas propiedades interesantes,
  • utilizando una técnica bastante estándar (cálculos de banda de energía).
  • Tuve que desarrollar algunos detalles de esa técnica.
  • Pero la técnica se mantuvo aproximada.
  • y comparé mis resultados con los datos experimentales existentes de tantas maneras como sea posible (p. ej., UPS o espectroscopia de fotón ultravioleta)
  • Mi conclusión fue que la técnica conocida podría predecir las propiedades interesantes solo de las estructuras atómicas de alta y baja temperatura y la conocida teoría de las bandas de energía.
  • Y esto era valioso en ese momento.
  • Y dentro de diez años, otro teórico de la banda realizó cálculos mucho más completos.
  • Y estoy bien con eso. Es como la ciencia progresa. Los mejores cálculos no refutaron nada de lo que encontré. Lo mejoraron.

Mi disertación ( http://gradworks.umi.com/35/43/3… ) propuso un método para

1) revelando puntos en común entre teorías de las ciencias sociales aparentemente dispares, y luego

2) integrando esos diferentes constructos.

Los procesos de integración que propuse se basan en la identificación de los supuestos subyacentes compartidos por las teorías no relacionadas en dos áreas básicas:

A) visiones del mundo (ontología), y

B) Filosofía de la ciencia (epistemología).

Fondo

En las ciencias humanas, gran parte de lo que parecen ser grandes diferencias teóricas a menudo son el resultado de las tradiciones lingüísticas de cada disciplina para describir la experiencia humana. Los términos pueden tener el mismo nombre pero diferentes significados en todas las disciplinas; o a la inversa, uno puede necesitar reconciliar diferentes términos para los mismos conceptos o conceptos similares.

Tomemos, por ejemplo, el autoconcepto, la autoimagen, la autoestima, la autoestima, la autoestima …

Imagine el caos y el lento progreso en la ciencia si grupos de científicos físicos insistieran en referirse a los elementos de la tabla periódica con diferentes nombres.

La división causada por cada disciplina de la ciencia social que desarrolla su propia jerga y construcciones de mascotas o métodos de investigación puede tener el efecto de pasar por alto, exagerar o poner demasiado énfasis en las diferentes formas de describir el mismo fenómeno humano o similar.

Los académicos y sus disciplinas fracturadas, y las diversas modas para la investigación, enmascaran así los puntos en común entre teorías y disciplinas. Los científicos sociales institucionalizan los cismas mediante el uso de un lenguaje diferente para los conceptos que de otro modo tendrían en común, pero para sus divisiones autoimpuestas.

Todo esto tiene el efecto potencial de eclipsar o retrasar los avances en nuestra comprensión de la naturaleza humana a medida que generaciones de científicos sociales hablan entre sí y realizan investigaciones redundantes y no conciliadas ni integradas con el trabajo de otros investigadores que analizan los mismos fenómenos.

Las teorías en todas las disciplinas de las ciencias sociales, o incluso en diferentes escuelas de una disciplina determinada, como la psicología, parecen ser más segregadoras o competitivas de lo que necesitan. El truco consiste en idear un medio por el cual cavar por debajo de las diferencias aparentes para descubrir los puntos en común y los universales compartidos por teorías aparentemente discordantes o divergentes para ampliar nuestra comprensión de la experiencia humana.

Lo que hizo mi disertacion

Creé un proceso mediante el cual examinar teorías en las ciencias humanas para suposiciones subyacentes. Luego apliqué el método a dos teorías psicológicas no relacionadas y discutiblemente discutibles por pioneros teóricos.

Mi disertación examinó la jerarquía de necesidades de Abraham Maslow y la teoría de la construcción personal de George A. Kelly (un precursor de las teorías cognitivas del comportamiento de hoy en día y las opiniones constructivistas de la realidad).

Descubrí que, aunque aparentemente divergentes en muchos aspectos, ambas teorías, cuando se someten a pruebas ontológicas y epistemológicas específicas, comparten muchas suposiciones implícitas . Estos puntos en común proporcionaron oportunidades para integrar y extender las teorías, lo que fomentó la comprensión del funcionamiento humano.

Mi disertación propuso una integración del pensamiento de Kelly y Maslow basado en aspectos comunes demostrados entre ellos, produciendo así una teoría sinérgica del desarrollo humano. Las premisas compartidas no tan obvias entre la jerarquía de necesidades de Maslow y la teoría de la construcción personal de Kelly podrían denominarse interpretación simbólica idiosincrásica de las percepciones y experiencias únicas de una persona.

En esencia, cada uno de nosotros interpreta el mundo de manera única; percibimos el mundo, lo experimentamos y actuamos en él sobre la base de una lógica simbólica que cada uno construye a lo largo de nuestra vida mientras nos esforzamos por satisfacer, con éxito variable, las necesidades humanas universales.

El método que propuse para examinar los puntos en común entre diferentes teorías se puede aplicar a dos o más teorías en prácticamente cualquier dominio (s) de ciencias sociales.

Mi disertación (1999, Universidad de Arizona) fue un estudio de los sonidos consonantes de Goshute. Goshute es una variedad de Shoshone que se habla en el oeste de Utah y en el este de Nevada. Es parte de la familia lingüística Uto-Azteca, cuyos miembros también incluyen Ute, Hopi y Nahuatl.

Goshute (y Shoshone, más generalmente) se caracteriza por un amplio rango de variación consonántica. Por ejemplo, la consonante / p / se pronuncia algo así como una [v] entre las vocales, como una [b] después de / m /, y algo como una [f] después de una / h /; se pronuncia como a [p] en otros lugares. Sabemos que realmente es un / p / aunque se pronuncia de todas esas otras formas, debido a lo que sucede cuando las palabras se unen en una frase u oración. Aquí hay un ejemplo. La palabra para ‘madre’ es / pia /. Para decir ‘mi madre’, usas el pronombre posesivo / nï / ‘my’ seguido de / pia /: / nï pia / (/ ï / es una vocal pronunciada como en inglés ‘roses’). La frase en realidad se pronuncia [nïvia]; el / p / se ha convertido en un [v]. Del mismo modo, ‘tu madre’ es / ïm pia /, pronunciado [ïmbia], y ‘nuestra madre’ es / tawïh pia /, pronunciado [tawïfia]. Otras consonantes como / t / y / k / muestran una variedad similar.

Los hechos de las alternaciones son claros. Lo que no está tan claro es cómo deben ser analizados. ¿Los oradores de Goshute recuerdan cada instancia de a / p / y cómo cambia a [v], [b] y [f], o los oradores internalizan los patrones y dejan que la variación surja automáticamente como resultado de algún tipo de cálculo fonético? ? Y si es el resultado de la computación fonética, ¿cómo funciona eso? Mi disertación usó un modelo vigente en ese momento, la teoría de la optimalidad (esto fue 1999), para responder a la pregunta. Yo postulé que la variación en la pronunciación de las consonantes de Goshute fue el resultado de la computación fonética en lugar de la memorización de ejemplos de variación consonántica. Utilicé la teoría de la optimalidad para mostrar cómo se podrían modelar los resultados de este cálculo. En mi análisis, parte del cómputo fonético involucraba el conocimiento tácito de las restricciones fisiológicas en la pronunciación; es más fácil pronunciar una [b] después de una [m] que pronunciar una [p] después de una [m], por ejemplo. Estas restricciones, cuando se toman juntas y se priorizan de una manera particular, dan lugar a exactamente los patrones de variación observados en las consonantes de Goshute.

Si bien el uso de la teoría de la optimalidad era importante para mí (y para mi comité) en ese momento, el mayor valor a largo plazo de mi disertación estará en la descripción de los patrones de variación de la fonología consonántica de Goshute. Sigue siendo la descripción más completa de la fonología de cualquier variedad de Shoshone o sus parientes cercanos.

Mi tesis consiste en varios trabajos. El que más me gusta tiene el siguiente resultado: si uno toma una gráfica infinita, para la cual una caminata aleatoria simple es transitoria, y marca todos los bordes que la caminata aleatoria atravesó, entonces el subgrafo resultante es recurrente, con probabilidad 1 .

Permítame agregar detalles: una gráfica es un conjunto de vértices (nodos) y un conjunto de aristas ( pares de vértices). Un recorrido aleatorio simple es una secuencia aleatoria de vértices que se crea al establecer [math] X_0 [/ math] como un vértice fijo y luego para cada [math] n [/ math] elegir un incidente de borde uniformemente aleatorio para [math] X_n [/ math] y configurando [math] X_ {n + 1} [/ math] para ser el otro vértice de ese borde. Entonces decimos que la caminata aleatoria atravesó este borde.

Si la gráfica tiene finamente muchos vértices, entonces la caminata regresará al vértice inicial con probabilidad 1 (en otras palabras, la probabilidad de que la caminata no regrese al vértice inicial en los primeros pasos [math] n [/ math] decae a 0 como [math] n \ to \ infty [/ math]). Esto aún puede suceder incluso si la gráfica es infinita, en cuyo caso decimos que la caminata aleatoria es recurrente . Si existe una probabilidad positiva de que la caminata nunca regrese al vértice inicial, decimos que la gráfica es transitoria . Por ejemplo, un resultado bien conocido de Polya indica que las redes de 1 y 2 dimensiones son recurrentes, pero las redes de dimensiones [math] d [/ math] para [math] d> 2 [/ math] son ​​transitorias.

Ahora, supongamos que uno toma una gráfica transitoria (es decir, una gráfica para la cual la caminata aleatoria es transitoria) y sigue la caminata aleatoria en toda la gráfica. ¿Qué tan grande puede ser el rastro de la caminata al azar? ¿Puede ser todo el gráfico? Lo que nosotros (el documento es conjunto con mi asesor, Itai Benjamini y Russell Lyons) probamos fue que este subgrafo es en sí mismo, con probabilidad 1, un gráfico recurrente. Es decir, si comenzamos una segunda caminata aleatoria simple en la traza de la primera, volverá a su posición inicial, con probabilidad 1. En particular, la ruta de la primera caminata aleatoria no puede ser la gráfica completa.

Aquí hay un enlace al artículo: [math / 0603060] Recurrencia de trazas aleatorias

PD: Me sentí muy feliz cuando me hicieron esta pregunta sobre mathoverflow (¡exactamente 3 años atrás!): Pr.probability: paseo aleatorio dentro de un paseo aleatorio dentro … – MathOverflow

Obtuve mi doctorado interdisciplinario en Ciencias de la Comunicación y la Información en mayo de 2013.

Mi tesis fue sobre el surgimiento de roles de miembros clave en redes sociotécnicas (redes sociales en línea, comunidades en línea, etc.). Los roles de los miembros clave que observé fueron (1) líderes de opinión, (2) escrutadores de límites y (3) contribuyentes de contenido. Estudié cómo los miembros individuales evolucionaron desde el primer día que ingresaron a la red hasta que jugaron cualquiera de estos roles clave.

Pude desarrollar y probar algoritmos que predijeron qué miembros nuevos evolucionarán para desempeñar roles clave en la red. Ya en la primera semana de membresía, estos algoritmos de predicción eran significativamente mejores que simplemente adivinar aleatoriamente qué miembros eventualmente jugarían roles clave en la red. Su precisión aumentó con el tiempo. También hice algunos descubrimientos interesantes sobre cómo los miembros individuales de la red desempeñan diferentes roles a lo largo del tiempo, así como combinaciones de múltiples roles al mismo tiempo.

Investigué y escribí mi disertación sobre el siguiente tema. ¿Cuáles son los impactos en los estudiantes de secundaria y preparatoria de la programación televisiva de instrucción en los temas de política y gobierno? Esa es la versión corta para mi abuela.

Los impactos se midieron en términos de conocimiento de eventos políticos, sentido de la eficacia política, motivación para participar, etc. Este fue un estudio antes / después de 1,000 N de los espectadores y un grupo de control sin acceso a esta programación. Los resultados implicaron una gran cantidad de análisis estadísticos de las diferencias entre los grupos de estudio y control.

Lo gracioso es que un evento político nacional MAYOR ocurrió durante mis cinco meses de estudio y porque los estudiantes tanto en el estudio como en el grupo de control tuvieron igual acceso a la televisión nacional y otras fuentes de noticias de este evento, el objetivo principal de mi estudio fue totalmente borrado. La experiencia de todos en política fue igualmente informada. Sin embargo, la disertación fue aceptada por la Universidad de Columbia porque mis técnicas de investigación y análisis estadístico fueron satisfactorios.

Una disertación es principalmente una demostración de que uno puede investigar, analizar y escribir. Dudo que la mayoría agregue algo significativo al cuerpo de conocimiento importante del mundo. Aunque una vez conocí a un matemático cuya disertación de 15 páginas se consideró un gran avance en su oscuro pero significativo campo de especialización.

Para responder a esta pregunta, voy a intentar un enfoque “diferente”. Participé en un concurso de tesis de 3 minutos (Tesis de tres minutos: la Universidad de Queensland, Australia) cuando me acercaba a mi graduación. Es un concurso que está ganando popularidad y creo que es una de las mejores plataformas que un doctorado puede obtener para explicar su investigación a la persona común. No es tan fácil como parece condensar 5 años de trabajo en una charla de tres minutos, cuando incluso 40 minutos de una presentación final de disertación es difícil para algunos para hacer llegar su punto a los miembros del comité de tesis y al público técnico.

Para colmo, preparé la charla como un poema / rap para que capte la atención del oyente. Aquí va –

Mi nombre es Tanmay y tengo una historia,

Está en las células madre pero no tienes que preocuparte.

Los dolores en las articulaciones en los adultos son muy graves,

Los ungüentos no te curarán, así que debes ser cauteloso.

La causa fundamental de los dolores articulares es el tejido cartilaginoso.

No se reparará por sí solo, por eso es un gran problema.

Los médicos hacen la cirugía y dejan que se cure por sí solo.

Pero el cartílago no es tan eficiente, a diferencia del hueso.

Así que usé células madre, porque son mis superhéroes,

Pueden formar el cartílago, para deshacerse de nuestras penas.

Las células madre son como la magia, pero ¿quién es el mago, hola?

Es mi hidrogel, que es una sustancia como la gelatina.

Pongo las células madre en la gelatina para formar el cartílago,

Esa es mi tesis doctoral, que es mi mensaje básico.

Pero las células madre pueden ser raras, no sabes en qué se convertirán,

Necesitas enseñarles magia, o pueden ser problemáticos.

Así que uso factores especiales, son bastante fuertes,

Enseñan a las células madre su magia, y evitan que salgan mal.

Mi investigación de doctorado comenzó con un pre-estudio,

Agregué un factor especial a la investigación de mi compañero de laboratorio.

Las células madre formaron hueso y me emocioné,

¿Pero pueden formar cartílago y hueso, juntos, unidos?

Así que usé dos factores, para el cartílago y el hueso,

Varié sus niveles para formar cada una de las zonas.

También agregué a la gelatina algunos materiales que leí antes,

Eran bastante fuertes, que adoran las células madre.

Vi células madre transformándose, como la mística mutante,

Debo decirte mis resultados, se ve bastante elegante.

Estos fueron mis dos estudios, en los que usé células madre,

Los obtuve de adultos, y los puse en mis geles.

A continuación usé células madre, del embrión humano,

Formaron el cartílago, pero no pudieron dejarlo ir.

¿Podemos hacer hueso, mi jefe y yo nos preguntábamos,

Obtener la gelatina y factores especiales, lo que se ordena.

Conseguimos hueso en dos semanas, lo cual es poco tiempo,

Comparado con otros que necesitan cinco, que es como un crimen.

Mi investigación fue un trabajo duro y tuvo potencial,

Simplemente combine las células madre con mi combo, y el resto es consecuente.

Aunque necesito más estudios para curar su dolor en las articulaciones,

Puedo hacer que vuelvas a correr, así que nada es en vano.

En menos de tres minutos, te di mi tesis,

Si tienes más preguntas, reúnete conmigo fuera del local . “[ Mic drop]

Me encantaría tener comentarios / sugerencias para mejorarlo o simplificarlo aún más.