¿Es necesario aprender Scala para aprender Spark?

No aprender Scala para aprender y trabajar con Spark no es necesario.

Pero, sería muy útil si puedes aprenderlo. Apache Spark está escrito en Scala y, por lo tanto, saberlo puede ayudarte en la depuración. Y, conociendo a Scala, incluso puedes contribuir a Spark. Pero, no es necesario porque puede usar Python y Java también y poder hacer el trabajo.

Pero, aquí hay información sobre Scala que podría hacerte decidir aprenderla.
Al ser un lenguaje funcional, Scala puede ser muy fácil de entender, especialmente si vienes de C u otros idiomas. se ejecuta en JVM. Dado que Spark está escrito en Scala, tendrá / podría tener algunos beneficios de rendimiento si escribe sus programas en Scala. Y, dado que Scala se basa en JVM, es nativo para Hadoop y funciona perfectamente con él. Y, también en casi todos los casos, supera a Python.

Entonces, decide lo que quieres aprender. Si ya conoce bien Java y no le importa el pesado código de placa de caldera que lo acompaña, elija Java. Pero, si aún no tiene esas preferencias, Scala le resultará muy útil. Y, no mucha gente usa python para un producto de nivel empresarial en Big Data.

Si desea saber cómo difieren Java, Python, Scala, lea esto: Mi respuesta a ¿Qué lenguaje de programación es bueno para manejar Hadoop y Spark: Java, Python o Scala?

Y, para obtener referencias sobre dónde comenzar a aprender Scala + Spark, lea esta respuesta: Mi respuesta a ¿Qué libro es bueno para aprender Spark y Scala para principiantes?

Ahora puede acceder y ejecutar trabajos de Spark desde varios idiomas, incluidos R y Python. La API es muy similar a Scala, y saber que Scala puede ayudar a entenderla, pero de ninguna manera es necesario.

No es esencial, pero es mejor aprender Scala.

1.El código más pequeño en scala en comparación con Java, ayuda a hacer el trabajo mucho más rápido
2. Es posible que deba ingresar al código base de Spark en algún momento, si planea usarlo en producción, entonces será necesario.

No o si.
No: Spark proporciona también API Java y Python, no necesita aprender Scala para Scala API.

Sí: Spala está escrito por Scala, y proporciona funciones y anuncios potentes para requisitos flexibles. Si quieres profundizar, es mejor que conozcas a Scala.

Scala es un lenguaje característico, no es necesario que los aprendas todos para cavar dentro de Spark.

Si solo quiere usar Spark para resolver su problema, la respuesta es NO. Spark proporciona API para Scala, Java, Python e incluso R, para que pueda elegir cualquier otro idioma para ejecutar sus trabajos de Spark. Si quieres tener un conocimiento profundo de Spark, es necesario aprender Scala, y por cierto, Scala es mucho más genial que Java.

Respuesta corta: No.

Es posible que necesite conocer las colecciones de scala o las nuevas colecciones de Java 8 para correlacionarse con lo que spark proporciona para RDD; sin embargo, no es obligatorio; como tal, la API de Sparks es bastante autoexplicativa y tiene un lado de Java y Python, y no es muy difícil de seguir.

Cuando se trata de una chispa de buceo profundo, saber que Scala puede ser útil, especialmente al pasar por el código.

Tengo un paquete completo y materiales con PROYECTOS en tiempo real de Apache Spark con Scala y Apache Hadoop.

Si está interesado, puede enviarme un mensaje a WhatsApp: +919476221231

Spark te da un práctico intérprete de scala para jugar (también en python). Además de esto, todo lo demás se puede hacer en Java.