Apache Spark & Scala Tutorial
¿Qué es Apache Spark?
Apache Spark es un framework de computación en clúster de código abierto que se desarrolló inicialmente en UC Berkeley en AMPLab.
En comparación con el MapReduce de dos etapas basado en disco de Hadoop, Spark proporciona un rendimiento hasta 100 veces más rápido para algunas aplicaciones con primitivas en memoria.
Esto lo hace adecuado para algoritmos de aprendizaje automático, ya que permite a los programas cargar datos en la memoria de un clúster y consultar los datos constantemente.
Un proyecto de Spark contiene varios componentes, como Conjuntos de datos Distribuidos Resilientes o RDD de Spark Core, SQL de Spark, Streaming de Spark, Biblioteca de Aprendizaje Automático o Mllib y GraphX.
En la siguiente sección del tutorial de Apache Spark y Scala, hablemos de lo que es Apache Spark.
¿Qué es Apache Scala?
Scala es un lenguaje de programación moderno y multi-paradigma. Ha sido diseñado para expresar patrones de programación generales de una manera elegante, precisa y segura de tipos. Una de las características principales es que integra las características de los lenguajes funcionales y orientados a objetos sin problemas.
Es un lenguaje orientado a objetos puro, ya que cada valor en él es un objeto. El comportamiento y los tipos de los objetos se explican a través de rasgos y clases.
también es un lenguaje funcional, ya que cada función es un valor. Al proporcionar una sintaxis ligera para definir funciones anónimas, proporciona soporte para funciones de orden superior.
Además, el lenguaje también permite anidar funciones y proporciona soporte para llevar. También tiene características como clases de casos y compatibilidad con tipos algebraicos de modelos de coincidencia de patrones.
Scala se escribe estáticamente, con un sistema de tipos expresivo. El sistema impone el uso de abstracciones de una manera coherente y segura. Para ser particulares, este sistema admite varias características como anotaciones, clases, vistas, métodos polimórficos, tipos compuestos, autorreferencias con tipos explícitos y límites de tipo superior e inferior.
Cuando se trata de desarrollar aplicaciones específicas de dominio, generalmente necesita extensiones de idioma específicas de dominio. Scala, al ser extensible, proporciona una combinación excepcional de mecanismos de lenguaje. Debido a esto, se vuelve fácil agregar nuevas construcciones de lenguaje como bibliotecas
En la siguiente sección del tutorial de Apache Spark y Scala, discutiremos los beneficios de los profesionales y organizaciones de Apache Spark y Scala yo.
Beneficios de Apache Spark y Scala para profesionales y Organizaciones
Los siguientes son los beneficios de Apache Spark y Scala
-
Proporciona un cálculo de memoria rápido y altamente confiable.
-
Eficiente en consultas interactivas y algoritmo iterativo.
-
Capacidades de tolerancia a fallos debido a la abstracción primaria inmutable llamada RDD.
-
Bibliotecas de aprendizaje automático integradas.
-
Proporciona una plataforma de procesamiento para transmitir datos mediante streaming de spark.
-
Análisis altamente eficiente en tiempo real utilizando spark streaming y spark sql.
-
Bibliotecas Graphx en la parte superior de spark Core para observaciones gráficas.
-
La compatibilidad con cualquier api JAVA, SCALA, PYTHON, R facilita la programación.
En la siguiente sección del tutorial de Apache Spark y Scala, discutiremos los requisitos previos de apache spark y scala.
Requisitos previos del Tutorial de Apache Spark y Scala
El requisito previo básico del tutorial de Apache Spark y Scala es un conocimiento fundamental de cualquier lenguaje de programación. Se espera que los participantes tengan un conocimiento básico de cualquier base de datos, SQL y lenguaje de consulta para bases de datos. El conocimiento práctico de sistemas basados en Linux o Unix, aunque no es obligatorio, es una ventaja adicional para este tutorial.
Exploremos el público objetivo del tutorial de Apache Spark y Scala en la siguiente sección.
¿Está interesado en obtener más información sobre Apache Spark & Scala? Inscríbase en nuestro curso de Apache hoy mismo!
Audiencia objetivo del Tutorial de Apache Spark y Scala
El tutorial está dirigido a profesionales que aspiran a una carrera en campos crecientes y exigentes de análisis de big data en tiempo real. Los principales beneficiarios de este tutorial son los profesionales de análisis, los profesionales de la investigación, los desarrolladores de TI, los evaluadores, los analistas de datos, los científicos de datos, los profesionales de BI y de informes y los gerentes de proyecto. Otros aspirantes y estudiantes que deseen obtener un conocimiento profundo de Apache Spark también pueden beneficiarse de este tutorial.
Exploremos la descripción general del tutorial de Apache Spark y Scala en la siguiente sección.
Descripción general del tutorial de Apache Spark y Scala
El tutorial de capacitación de Apache Spark y Scala ofrecido por Simplilearn proporciona detalles sobre los fundamentos del análisis en tiempo real y la necesidad de una plataforma de computación distribuida.
Este tutorial :
-
Explicar Scala y sus características.
-
Mejore su conocimiento de la arquitectura de Apache Spark.
-
Explicar el proceso de instalación y ejecución de aplicaciones utilizando Apache Spark.
-
Mejore sus conocimientos sobre la ejecución de SQL, streaming y procesamiento por lotes.
-
Explicar el aprendizaje automático y el análisis de gráficos en los datos de Hadoop.
En la siguiente sección, discutiremos los objetivos del tutorial de Apache Spark y Scala.
Objetivos
Después de completar este tutorial, usted será capaz de:
-
Explicar el proceso de instalación de Spark
-
Describir las características de Scala
-
Discutir cómo usar RDD para crear aplicaciones en Spark
-
Explicar cómo ejecutar consultas SQL utilizando SparkSQL
-
Discutir las características de Spark Streaming
-
Explicar las características de Spark Streaming
rogramación Spark ML
-
Describa las características de la Programación GraphX
Exploremos las lecciones cubiertas en el tutorial de Apache Spark y Scala en la siguiente sección.
Lecciones cubiertas en este tutorial de Apache Spark y Scala
Hay siete lecciones cubiertas en este tutorial. Echa un vistazo a la lección de los nombres que aparecen a continuación,
Lección No |
Nombre del Capítulo |
¿Qué vas a Aprender |
Lección 1 |
Introducción a la Chispa Tutorial |
En este capítulo, usted será capaz de:
|
Lección 2 |
Introducción a la Programación en Scala Tutorial |
En este capítulo, usted será capaz de:
|
Lección 3 |
Usar RDD para crear Aplicaciones en el Tutorial de Spark |
En este capítulo, podrá:
|
Lección 4 |
Ejecutar Consultas SQL con Chispa SQL Tutorial |
En este capítulo, usted será capaz de:
|
Lección 5 |
Spark Streaming Tutorial |
En este capítulo, usted será capaz de:
|
Lección 6 |
En este capítulo, podrá:
|
|
Lección 7 |
Chispa GraphX Tutorial de Programación |
En este capítulo, usted será capaz de:
|
Conclusión
Con esto, llegamos a un final acerca de lo que esto Apache Spark y Scala tutorial incluir. En el siguiente capítulo, discutiremos un Tutorial de Introducción a Spark.
{{lectureCoursePreviewTitle}} Ver Transcripción Ver Vídeo
Para saber más, tomar el Curso
Apache Spark y de la Scala de Certificación de la Formación
Ir a Curso
Para saber más, tomar el Curso
Apache Spark y de la Scala de Certificación de Capacitación Ir a Curso
Leave a Reply