¿Cuáles son algunas buenas maneras de aprender Kubernetes?

Si ya sabe “Contenedores”, gire un sistema Kubernetes (No es tan difícil como cree), lea la documentación de Kubernetes y comience a probar algunas de las capacidades por sí mismo.

Los recursos en línea, como las listas de “Awesome Kubernetes” o “Awesome Docker” (es necesario tener cierta comprensión de Docker para trabajar con Kubernetes) le brindarán un montón de opciones, gratuitas y de pago, para profundizar en estos temas. .

Después de ejecutar el curso gratuito de Carter Morgan / Kelsey Hightower en Udacity, me pareció una introducción sólida, aunque de alto nivel, a lo básico. El principal inconveniente que veo es la necesidad de crear una cuenta de Google Cloud Platform y también aprender a interactuar con ese sistema. Aunque también puedes intentar ejecutarlo con un entorno de minicubos.


Si está buscando capacitación profesional, acabo de terminar de ayudar a construir una ruta de aprendizaje de Kubernetes en línea y a su propio ritmo que lo llevará de usuario novato a operador de Kubernetes. Estos cuestan, por lo que es posible que desee consultar con su capacitación o con el departamento de Recursos Humanos para que paguen por ellos si son relevantes para su trabajo.

KUB050 – Inicio rápido de Kubernetes: proporciona una introducción a la arquitectura y función de Kubernetes e incluye un laboratorio que le muestra cómo implementar un entorno de Kubernetes de un solo nodo en su computadora portátil y usarlo para escalar aplicaciones basadas en contenedores Docker.

KUB100 – Fundamentos de Kubernetes: esto es equivalente a una capacitación guiada por un instructor de dos días y proporciona orientación a la arquitectura y funcionalidad básica de Docker con el trabajo de laboratorio y luego proporciona una inmersión más profunda en los sistemas de Kubernetes

KUB200: Operación Kubernetes: otro curso equivalente a ILT de dos días que incluye una consideración avanzada de temas como redes, almacenamiento, seguridad y más.

Recomiendo el curso de Udacity llamado “Microservicios escalables con Kubernetes”. Kelsey Hightower es una maestra increíble, por lo que realmente cualquier conversación de él sería una buena opción, pero esa clase está diseñada específicamente para ponerte en marcha con Kubernetes.

Kubernetes ya es la plataforma de orquestación de contenedores más popular, y se espera que se mantenga en el primer lugar el próximo año. Entonces, si planeas subirte al carro de Kubernetes, este es un buen momento.

Aprende Kubernetes aquí: Aprende Kubernetes – Los mejores tutoriales de Kubernetes | Hackr.io

Una de las mejores cosas de Kubernetes es que es muy fácil, casi trivial lanzar su propio clúster de Kubernetes usando scripts de automatización. Pero, el lanzamiento de un clúster rara vez es el objetivo final. Desea utilizar su clúster Kubernetes para organizar algunos contenedores. Y, si solo estás jugando y quieres ver cómo funciona, la automatización anula el propósito.

Entonces, la conclusión es: es importante que entiendas lo que sucede detrás de la escena.

¿Cómo haces esto? Al aprender Kubernetes por el camino difícil. Al asegurarse específicamente de que sabe lo que sucede debajo del capó cuando ejecuta un script.

Hay un recurso que te ayuda a hacer esto. Se llama Kubernetes The Hard Way. Y con más de 2500 estrellas GitHub y más de 150 tenedores, esta guía es una de las guías más extensas que hay para ayudarte a aprender Kubernetes.

Kubernetes The Hard Way cubre temas como la configuración de la generación de certificados de CA y TLS, el arranque de un clúster de etcd, el plano de control de Kubernetes de arranque y mucho más, de una manera sucinta y fácil de seguir. Las lecciones se agregan como laboratorios , con cada laboratorio formando una unidad de información autónoma, comenzando con el por qué y pasando al aspecto del tema en cuestión.

Aquí hay algunos ejemplos de laboratorios:

  1. Arrancando un clúster de H / A, etc. Los componentes de Kubernetes no tienen estado, lo que facilita la administración del clúster. Para administrar el estado relevante para sus aplicaciones, puede usar etcd. Sin embargo, es importante separar la instalación de etcd de su aplicación que se ejecuta en Kubernetes para asegurarse de que etcd pueda actualizarse independientemente y obtenga los recursos necesarios para que se ejecute sin problemas. Esta práctica de laboratorio explica cómo iniciar un clúster de 3 nodos, etc.
  2. Bootstrapping Kubernetes trabajadores en máquinas específicas. Los trabajadores son nodos que realmente hacen el trabajo, es decir, ejecutan sus contenedores de aplicaciones. Es importante asegurarse de que se segregan las máquinas que ejecutan trabajadores y las que ejecutan componentes críticos de Kubernetes. De esta manera, se asegura de que los pods que ejecutan componentes críticos de Kubernetes no se vean afectados por la carga de la aplicación. En este laboratorio aprenderás a hacer esto.
  3. Prueba de humo. Para los no iniciados, las pruebas de humo se refieren a un conjunto no exhaustivo de pruebas utilizadas para garantizar que la funcionalidad más básica de un sistema funciona como se espera. En esta práctica de laboratorio, se le presenta una prueba de humo de Kubernetes para asegurarse de que su grupo se ejecute como se esperaba.

Aprende Kubernetes aquí: https://hackr.io/tutorials/learn

Introducción

Kubernetes es un sistema poderoso, desarrollado por Google, para administrar aplicaciones en contenedores en un entorno agrupado. Su objetivo es proporcionar mejores formas de administrar componentes relacionados y distribuidos en una infraestructura variada.

En esta guía, discutiremos algunos de los conceptos básicos de Kubernetes. Hablaremos sobre la arquitectura del sistema, los problemas que resuelve y el modelo que utiliza para manejar las implementaciones en contenedores y la escala.

¿Qué es Kubernetes?

Kubernetes , en su nivel básico, es un sistema para administrar aplicaciones en contenedores a través de un grupo de nodos. En muchos sentidos, Kubernetes fue diseñado para abordar la desconexión entre la forma en que se diseña la infraestructura moderna y agrupada, y algunas de las suposiciones que la mayoría de las aplicaciones y servicios tienen sobre sus entornos.

La mayoría de las tecnologías de clustering se esfuerzan por proporcionar una plataforma uniforme para el despliegue de aplicaciones. El usuario no debería tener que preocuparse mucho sobre dónde está programado el trabajo. La unidad de trabajo presentada al usuario se encuentra en el nivel de “servicio” y puede ser realizada por cualquiera de los nodos miembros.

Sin embargo, en muchos casos, importa cómo se ve la infraestructura subyacente. Al escalar una aplicación, a un administrador le importa que las distintas instancias de un servicio no se asignen todas al mismo host.

En el otro lado de las cosas, muchas aplicaciones distribuidas compuestas con la escala en mente están compuestas de servicios de componentes más pequeños. Estos servicios deben programarse en el mismo host que los componentes relacionados si se van a configurar de forma trivial. Esto se vuelve aún más importante cuando confían en condiciones de red específicas para comunicarse adecuadamente.

Si bien es posible con la mayoría del software de agrupación en clústeres tomar este tipo de decisiones de programación, no es ideal operar a nivel de servicios individuales. En la mayoría de los casos, las aplicaciones que comprenden diferentes servicios deben administrarse como una sola aplicación. Kubernetes proporciona una capa sobre la infraestructura para permitir este tipo de gestión.

Componentes Maestros

Los sistemas a nivel de infraestructura como CoreOS se esfuerzan por crear un entorno uniforme donde cada host sea desechable e intercambiable. Kubernetes, por otro lado, opera con un cierto nivel de especialización de host.

Los servicios de control en un grupo de Kubernetes se denominan componentes maestro o plano de control . Estos funcionan como los principales puntos de contacto de administración para los administradores, y también proporcionan muchos sistemas a nivel de clúster para los nodos de trabajo relativamente tontos. Estos servicios se pueden instalar en una sola máquina o distribuir en varias máquinas.

Los servidores que ejecutan estos componentes tienen una serie de servicios únicos que se utilizan para administrar la carga de trabajo del clúster y las comunicaciones directas a través del sistema. A continuación, cubriremos estos componentes.

Etcd

Uno de los componentes fundamentales que necesita Kubernetes para funcionar es un almacén de configuración disponible a nivel mundial. El proyecto etcd , desarrollado por el equipo CoreOS, es un almacén de valor clave distribuido y ligero que se puede distribuir a través de múltiples nodos.

Kubernetes utiliza etcd para almacenar datos de configuración que pueden ser utilizados por cada uno de los nodos en el clúster. Esto se puede usar para el descubrimiento del servicio y representa el estado del clúster al que cada componente puede hacer referencia para configurarse o reconfigurarse. Al proporcionar una API HTTP / JSON simple, la interfaz para establecer o recuperar valores es muy sencilla.

Como la mayoría de los otros componentes en el plano de control, etcd puede configurarse en un único servidor maestro o, en escenarios de producción, distribuirse entre varias máquinas. El único requisito es que la red sea accesible para cada una de las máquinas Kubernetes.

Servidor API

Uno de los servicios maestros más importantes es un servidor API. Este es el punto de administración principal de todo el clúster, ya que le permite a un usuario configurar muchas de las cargas de trabajo y unidades organizativas de Kubernetes. También es responsable de asegurarse de que la tienda etcd y los detalles de servicio de los contenedores implementados están de acuerdo. Actúa como el puente entre varios componentes para mantener la salud del clúster y diseminar información y comandos.

El servidor API implementa una interfaz REST, lo que significa que muchas herramientas y bibliotecas diferentes pueden comunicarse fácilmente con ella. Un cliente llamado kubecfg está empaquetado junto con las herramientas del lado del servidor y se puede usar desde una computadora local para interactuar con el clúster Kubernetes.

Servicio de administrador de controladores

El servicio del administrador del controlador es un servicio general que tiene muchas responsabilidades. Es responsable de una serie de controladores que regulan el estado del clúster y realizan tareas rutinarias. Por ejemplo, el controlador de replicación garantiza que la cantidad de réplicas definidas para un servicio coincida con el número implementado actualmente en el clúster. Los detalles de estas operaciones se escriben en etcd , donde el administrador del controlador observa los cambios a través del servidor API.

Cuando se ve un cambio, el controlador lee la nueva información e implementa el procedimiento que cumple con el estado deseado. Esto puede implicar escalar una aplicación hacia arriba o hacia abajo, ajustar los puntos finales, etc.

Servicio de programador

El proceso que realmente asigna cargas de trabajo a nodos específicos en el clúster es el programador. Esto se utiliza para leer los requisitos operativos de un servicio, analizar el entorno de infraestructura actual y colocar el trabajo en un nodo o nodos aceptables.

El programador es responsable de hacer un seguimiento de la utilización de los recursos en cada host para asegurarse de que las cargas de trabajo no estén programadas en exceso de los recursos disponibles. El programador debe conocer los recursos totales disponibles en cada servidor, así como los recursos asignados a las cargas de trabajo existentes asignadas en cada servidor.

Componentes del Servidor Nodo

En Kubernetes, los servidores que realizan trabajo se conocen como nodos . Los servidores de nodo tienen algunos requisitos que son necesarios para comunicarse con los componentes maestros, configurar la red para contenedores y ejecutar las cargas de trabajo reales asignadas a ellos.

Docker ejecutándose en una subred dedicada

El primer requisito de cada servidor de nodo individual es la docker . El servicio de la docker se utiliza para ejecutar contenedores de aplicaciones encapsulados en un entorno operativo relativamente aislado pero liviano. Cada unidad de trabajo se implementa, en su nivel básico, como una serie de contenedores que deben implementarse.

Una suposición clave que hace Kubernetes es que una subred dedicada está disponible para cada servidor de nodo. Este no es el caso con muchas implementaciones agrupadas estándar. Por ejemplo, con CoreOS, se necesita un tejido de red separado llamado flannel para este propósito. Docker debe configurarse para usar esto de modo que pueda exponer los puertos de la manera correcta.

Servicio de Kubelet

El punto de contacto principal para cada nodo con el grupo de clústeres es a través de un pequeño servicio llamado kubelet . Este servicio es responsable de transmitir información hacia y desde los servicios del plano de control, así como de interactuar con el almacén etcd para leer los detalles de configuración o escribir nuevos valores.

El servicio kubelet comunica con los componentes maestros para recibir comandos y trabajar. El trabajo se recibe en forma de un “manifiesto” que define la carga de trabajo y los parámetros operativos. El proceso de kubelet asume la responsabilidad de mantener el estado del trabajo en el servidor de nodo.

Servicio de proxy

Con el fin de hacer frente a la división en subredes del host individual y para hacer que los servicios estén disponibles para terceros, se ejecuta un pequeño servicio proxy en cada servidor de nodo. Este proceso reenvía las solicitudes a los contenedores correctos, puede hacer un equilibrio de carga primitivo y generalmente es responsable de asegurarse de que el entorno de red sea predecible y accesible, pero aislado.

Unidades de Trabajo Kubernetes

Si bien los contenedores son los que se usan para implementar aplicaciones, las cargas de trabajo que definen cada tipo de trabajo son específicas de Kubernetes. Repasaremos los diferentes tipos de “trabajo” que se pueden asignar a continuación.

Vainas

Una vaina es la unidad básica con la que trata Kubernetes. Los contenedores en sí no están asignados a los hosts. En su lugar, los contenedores estrechamente relacionados se agrupan en una vaina. Un pod generalmente representa uno o más contenedores que deben ser controlados como una sola “aplicación”.

Esta asociación hace que todos los contenedores involucrados se programen en el mismo host. Se gestionan como una unidad y comparten un entorno. Esto significa que pueden compartir volúmenes y espacio de IP, y pueden implementarse y escalarse como una sola aplicación. En general, puede y debe pensar en los pods como una sola computadora virtual para poder conceptualizar mejor cómo deberían funcionar los recursos y la programación.

El diseño general de las cápsulas generalmente consiste en el contenedor principal que satisface el propósito general de la cápsula y, opcionalmente, algunos contenedores de ayuda que facilitan las tareas relacionadas. Estos son programas que se benefician de ser ejecutados y administrados en su propio contenedor, pero están fuertemente vinculados a la aplicación principal.

La escala horizontal generalmente no se recomienda en el nivel de pod porque existen otras unidades más adecuadas para la tarea.

Servicios

Hemos utilizado el término “servicio” a lo largo de esta guía de una manera muy flexible, pero Kubernetes en realidad tiene una definición muy específica para la palabra al describir las unidades de trabajo. Un servicio , cuando se describe de esta manera, es una unidad que actúa como un equilibrador de carga básico y un embajador para otros contenedores. Un servicio agrupa colecciones lógicas de pods que realizan la misma función para presentarlas como una sola entidad.

Esto le permite implementar una unidad de servicio que conoce todos los contenedores de backend para pasar el tráfico. Las aplicaciones externas solo deben preocuparse por un único punto de acceso, pero se benefician de un backend escalable o al menos un backend que puede intercambiarse cuando sea necesario. La dirección IP de un servicio permanece estable, abstrayendo cualquier cambio en las direcciones IP del pod que pueda ocurrir a medida que los nodos mueren o se reprograman los pods.

Los servicios son una interfaz para un grupo de contenedores para que los consumidores no tengan que preocuparse por nada más allá de una única ubicación de acceso. Al implementar un servicio, puede obtener fácilmente la capacidad de descubrimiento y puede simplificar los diseños de sus contenedores.

Controladores de replicación

Una versión más compleja de un pod es un pod replicado . Estos son manejados por un tipo de unidad de trabajo conocida como un controlador de replicación .

Un controlador de replicación es un marco para definir pods que están diseñados para ser escalados horizontalmente. La unidad de trabajo es, en esencia, una unidad anidada. Se proporciona una plantilla, que es básicamente una definición completa de pod. Esto se envuelve con detalles adicionales sobre el trabajo de replicación que se debe hacer.

El controlador de replicación es una responsabilidad delegada sobre el mantenimiento de un número deseado de copias. Esto significa que si un contenedor se cae temporalmente, el controlador de replicación podría iniciar otro contenedor. Si el primer contenedor vuelve a estar en línea, el controlador anulará uno de los contenedores.

Varios de los recursos que hubiera sugerido ya se han mencionado. El curso de Udacity me lo sugirieron directamente Google y nuestros ingenieros lo encontraron muy útil cuando giramos por primera vez hacia Kubernetes.

Kubernetes the Hard Way es una buena manera de profundizar más de lo que lo haría de otra manera y descubrir los entresijos.

Yo añadiría dos cosas:

  1. El Kubernetes Slack está lleno de personas increíblemente útiles para sus muchas preguntas (especialmente si está luchando contra AWS u otro proveedor de la nube separado de Google para esto).
  2. Valoro mucho el fiddling, y la forma más rápida de ponerse en marcha con Kubernetes es en Google Container Engine (GKE).

Finalmente, si usted es un ingeniero que construye un producto en una empresa, le sugiero que deje que alguien más lo aprenda y lo construya por usted, ya que ser un gran producto y una gran infraestructura (por medio de Kubernetes) es probablemente más costoso que usted. necesitar. Dicho esto, obviamente estoy parcializado, ya que eso es lo que hacemos en ReactiveOps.

Buena suerte.

Primero aprendería “docker simple” para comprender primero la administración de contenedores, volúmenes y redes.

Para configurar su primer sistema Kubernetes, consulte las opciones de instalación, consulte la página Escoger la solución correcta y la documentación de Hello World Tutorial y Kubernetes.

Busque videos de introducción kubernetes intro – YouTube o temas específicos que le gustaría entender.

Para comenzar a aprender con un pequeño sistema, echa un vistazo a kubernetes / minikube fácil de instalar Kuberntes de nodo único.

Otra forma conveniente es implementar Kubernetes en RancherOS. ¡Ahora el ranchero es compatible con Kubernetes! | Laboratorios de rancheros

Creo que la curva de aprendizaje para Kubernets es “alta” (especialmente si no conoce la ventana acoplable, o sistemas similares como Swarm o Mesos), pero es realmente poderosa y tiene muchas funciones.

Hice mis experiencias con “aprender haciendo”, obtenga los documentos, haga una configuración, intente implementar su tarea específica … en mi caso, las configuraciones de los agentes de supervisión y registro. Dependiendo de las herramientas de orquestación (Kubernetes, Swarm o Mesos), los comandos son diferentes, como puede ver, por ejemplo, en mi publicación Soporte de Monitoreo y Registro de RancherOS, en caso de que no solo esté interesado en Kubernetes.

También recomiendo el Curso Udacity de los Kubernetes para comenzar con los Kubernetes para el nivel de principiante.

También puede consultar el curso de Introducción a Kubernetes proporcionado por la comunidad edX.
Una vez que comprendas bien los conceptos de los Kubernetes, te recomendaré que pruebes los tutoriales.

Si desea comprender a fondo sobre Kubernetes, kelseyhightower / kubernetes-the-hard-way es uno de los mejores recursos para leer.

Practicar con Minikube es una de las mejores cosas para aprender Kubernetes.

Para Minikube puede verificar Ejecución de Kubernetes localmente a través de Minikube.

Si tiene alguna duda, asista a las reuniones locales de Cloud Native Computing Foundation (CNCF).

Y también la mejor fuente para despejar todas tus dudas es unirte al canal oficial de Slack de los Kubernetes.

Aprenda cómo puede ejecutar, implementar, administrar y mantener aplicaciones Docker en contenedores en Kubernetes

Course Link- Learn DevOps: The Complete Kubernetes Course

¿Que aprenderás?

  • Ser capaz de comprender, implementar y usar KubernetesGet comenzó con la contenedorización y ejecutar esos contenedores en KubernetesUse Kubernetes como un solo nodo y en AWS
  • Ser capaz de ejecutar aplicaciones sin estado y con estado en Kubernetes
  • Ser capaz de implementar WordPress y MySQL en Kubernetes

Requisitos para realizar este curso:

  • No hay requisitos previos inmediatos para comenzar este curso. Las primeras conferencias del curso explicarán cómo instalar el software.

Descripción del curso por instructor

Cuando Google comenzó a ejecutar contenedores hace una década, nadie podía alcanzar este tipo de agilidad y eficiencia de infraestructura. Usando este conocimiento, Google lanzó Kubernetes como un proyecto de código abierto y gratuito. Hoy en día, Kubernetes es utilizado por pequeñas empresas y grandes empresas que desean obtener la eficiencia y la velocidad que tiene Google.

Puedes contenedorizar aplicaciones usando Docker. Luego puede ejecutar esos contenedores en sus servidores, pero no hay forma de que pueda administrarlos de manera eficiente sin un software de administración adicional. Kubernetes es un orquestador para sus contenedores que creará, programará y administrará sus contenedores en un grupo de servidores. Kubernetes puede ejecutarse en las instalaciones o en la nube, en una sola máquina o en miles de máquinas.

Este curso lo ayudará a comprender mejor cómo implementar, usar y mantener sus aplicaciones en Kubernetes. Si estás en DevOps, esta es una tecnología que necesitas dominar. Kubernetes ha ganado mucha popularidad últimamente y es una habilidad muy buscada por las empresas.

Le mostraré cómo crear aplicaciones en contenedores utilizando la ventana acoplable y cómo implementarlas en un clúster Kubernetes. Le explicaré cómo configurar su clúster en su escritorio o en la nube usando AWS. Utilizo una aplicación de ejemplo del mundo real (WordPress con MySQL – software de blogs) para mostrarle el poder real de Kubernetes: programar aplicaciones sin estado y con estado.

Las presentaciones introductorias que muestran la instalación de escritorio de Kubernetes son gratuitas para una vista previa, por lo que ya puede intentarlo antes de comprar el curso.

Este es el cuarto curso de la serie “Learn DevOps”. No es necesario que haya visto ningún curso anterior “Aprender DevOps”, pero si encuentra que necesita más información sobre microservicios y contenedorización, le recomendaría encarecidamente que tome el curso “Aprenda DevOps: entregue continuamente un mejor software”.

Este curso también tiene subtítulos (subtítulos en inglés)

¿Quién es el público objetivo?

  • No se necesita conocimiento previo, pero un fondo de desarrollo / operaciones / nube / linux / redes definitivamente ayudará
  • El curso utiliza opcionalmente Kubernetes en AWS. Si desea obtener más información acerca de AWS, deberá leer algunos documentos de AWS o tomar otro curso de AWS. El curso solo explica cómo usar Kubernetes en AWS, no explica cómo usar AWS en sí. Aún así, todos los pasos que debe seguir se explican en este curso.

Soy uno de los co-creadores de Microservices escalables con Kubernetes | Udacity.

Avanzando lo que dijo Alex:

El curso cubre cómo los contenedores (utilizando Docker) hacen que los procesos de inicio y detención sean mucho más fáciles, en una sola máquina. También cubre cómo los contenedores hacen que el empaquetado y la distribución de aplicaciones sean triviales.

A continuación, el curso cubre cómo escalar a múltiples máquinas, usando Kubernetes. El curso cubre cómo crear Implementaciones, Servicios, Pods, Secretos y más, todos los cuales son los primitivos básicos necesarios para configurar un clúster.

Después de eso, vería el libro de Kelsey Hightower (que se publicará pronto): Kubernetes: Up and Running. Cubrirá muchas de las características más avanzadas.

Y si quisiera configurar su propio clúster, vería kelseyhightower / kubernetes-the-hard-way, que va paso a paso a través de la configuración de uno.

También se habla rápidamente sobre algunos de los cursos, Orquestando la nube con Kubernetes:

Aprende Kubernetes aquí: https://hackr.io/tutorials/learn

La mejor manera de inclinarse kubernetes es:

  1. Pasar por su tutorial interactivo.
  2. Regístrese en Google Compute Engine y cree un clúster de kubernetes
  3. Jugar alrededor de Pods and Services yaml.
  4. Instale kubernetes usando “kelseyhightower / kubernetes-the-hard-way”, ya que le ayudará a comprender cada servicio en K8s

Te invito a que revises la guía que he creado y mis colegas creadores.

Aprende a usar Kubernetes y Elasticsearch

Hay muchos buenos recursos y respuestas aquí. Como lo mencionó Stefan Thies en su respuesta, aprender haciendo es la mejor manera de aprender cualquier cosa. En esa nota, me gustaría agregar que puede revisar Hasura que usa kubernetes y docker. Esto le daría una buena comprensión de cómo crear aplicaciones en Kubernetes. Puede consultar las instrucciones de desarrollo local de Hasura aquí para instalar minikube y Hasura en su máquina local y comenzar a crear aplicaciones.

Descargo de responsabilidad: trabajo en Hasura.

Por favor, eche un vistazo a los laboratorios, cursos y campos de juego basados ​​en navegador interactivo | Katacoda. Tienen algunas sesiones cortas de laboratorio y en línea sobre kubernetes y docker.

¡Ten un proyecto y hazlo!

Eso es todo.

No hay mejor manera de hacer algo real.

Parada completa