Articles

Apache Spark & Scala Tutorial

¿Qué es Apache Spark?

Apache Spark es un framework de computación en clúster de código abierto que se desarrolló inicialmente en UC Berkeley en AMPLab.

En comparación con el MapReduce de dos etapas basado en disco de Hadoop, Spark proporciona un rendimiento hasta 100 veces más rápido para algunas aplicaciones con primitivas en memoria.

Esto lo hace adecuado para algoritmos de aprendizaje automático, ya que permite a los programas cargar datos en la memoria de un clúster y consultar los datos constantemente.

Un proyecto de Spark contiene varios componentes, como Conjuntos de datos Distribuidos Resilientes o RDD de Spark Core, SQL de Spark, Streaming de Spark, Biblioteca de Aprendizaje Automático o Mllib y GraphX.

En la siguiente sección del tutorial de Apache Spark y Scala, hablemos de lo que es Apache Spark.

¿Qué es Apache Scala?

Scala es un lenguaje de programación moderno y multi-paradigma. Ha sido diseñado para expresar patrones de programación generales de una manera elegante, precisa y segura de tipos. Una de las características principales es que integra las características de los lenguajes funcionales y orientados a objetos sin problemas.

Es un lenguaje orientado a objetos puro, ya que cada valor en él es un objeto. El comportamiento y los tipos de los objetos se explican a través de rasgos y clases.

también es un lenguaje funcional, ya que cada función es un valor. Al proporcionar una sintaxis ligera para definir funciones anónimas, proporciona soporte para funciones de orden superior.

Además, el lenguaje también permite anidar funciones y proporciona soporte para llevar. También tiene características como clases de casos y compatibilidad con tipos algebraicos de modelos de coincidencia de patrones.

Scala se escribe estáticamente, con un sistema de tipos expresivo. El sistema impone el uso de abstracciones de una manera coherente y segura. Para ser particulares, este sistema admite varias características como anotaciones, clases, vistas, métodos polimórficos, tipos compuestos, autorreferencias con tipos explícitos y límites de tipo superior e inferior.

Cuando se trata de desarrollar aplicaciones específicas de dominio, generalmente necesita extensiones de idioma específicas de dominio. Scala, al ser extensible, proporciona una combinación excepcional de mecanismos de lenguaje. Debido a esto, se vuelve fácil agregar nuevas construcciones de lenguaje como bibliotecas

En la siguiente sección del tutorial de Apache Spark y Scala, discutiremos los beneficios de los profesionales y organizaciones de Apache Spark y Scala yo.

Beneficios de Apache Spark y Scala para profesionales y Organizaciones

Los siguientes son los beneficios de Apache Spark y Scala

  • Proporciona un cálculo de memoria rápido y altamente confiable.

  • Eficiente en consultas interactivas y algoritmo iterativo.

  • Capacidades de tolerancia a fallos debido a la abstracción primaria inmutable llamada RDD.

  • Bibliotecas de aprendizaje automático integradas.

  • Proporciona una plataforma de procesamiento para transmitir datos mediante streaming de spark.

  • Análisis altamente eficiente en tiempo real utilizando spark streaming y spark sql.

  • Bibliotecas Graphx en la parte superior de spark Core para observaciones gráficas.

  • La compatibilidad con cualquier api JAVA, SCALA, PYTHON, R facilita la programación.

En la siguiente sección del tutorial de Apache Spark y Scala, discutiremos los requisitos previos de apache spark y scala.

Requisitos previos del Tutorial de Apache Spark y Scala

El requisito previo básico del tutorial de Apache Spark y Scala es un conocimiento fundamental de cualquier lenguaje de programación. Se espera que los participantes tengan un conocimiento básico de cualquier base de datos, SQL y lenguaje de consulta para bases de datos. El conocimiento práctico de sistemas basados en Linux o Unix, aunque no es obligatorio, es una ventaja adicional para este tutorial.

Exploremos el público objetivo del tutorial de Apache Spark y Scala en la siguiente sección.

¿Está interesado en obtener más información sobre Apache Spark & Scala? Inscríbase en nuestro curso de Apache hoy mismo!

Audiencia objetivo del Tutorial de Apache Spark y Scala

El tutorial está dirigido a profesionales que aspiran a una carrera en campos crecientes y exigentes de análisis de big data en tiempo real. Los principales beneficiarios de este tutorial son los profesionales de análisis, los profesionales de la investigación, los desarrolladores de TI, los evaluadores, los analistas de datos, los científicos de datos, los profesionales de BI y de informes y los gerentes de proyecto. Otros aspirantes y estudiantes que deseen obtener un conocimiento profundo de Apache Spark también pueden beneficiarse de este tutorial.

Exploremos la descripción general del tutorial de Apache Spark y Scala en la siguiente sección.

Descripción general del tutorial de Apache Spark y Scala

El tutorial de capacitación de Apache Spark y Scala ofrecido por Simplilearn proporciona detalles sobre los fundamentos del análisis en tiempo real y la necesidad de una plataforma de computación distribuida.

Este tutorial :

  • Explicar Scala y sus características.

  • Mejore su conocimiento de la arquitectura de Apache Spark.

  • Explicar el proceso de instalación y ejecución de aplicaciones utilizando Apache Spark.

  • Mejore sus conocimientos sobre la ejecución de SQL, streaming y procesamiento por lotes.

  • Explicar el aprendizaje automático y el análisis de gráficos en los datos de Hadoop.

En la siguiente sección, discutiremos los objetivos del tutorial de Apache Spark y Scala.

Objetivos

Después de completar este tutorial, usted será capaz de:

  • Explicar el proceso de instalación de Spark

  • Describir las características de Scala

  • Discutir cómo usar RDD para crear aplicaciones en Spark

  • Explicar cómo ejecutar consultas SQL utilizando SparkSQL

  • Discutir las características de Spark Streaming

  • Explicar las características de Spark Streaming

    rogramación Spark ML

  • Describa las características de la Programación GraphX

Exploremos las lecciones cubiertas en el tutorial de Apache Spark y Scala en la siguiente sección.

Lecciones cubiertas en este tutorial de Apache Spark y Scala

Hay siete lecciones cubiertas en este tutorial. Echa un vistazo a la lección de los nombres que aparecen a continuación,

utorial

Lección No

Nombre del Capítulo

¿Qué vas a Aprender

Lección 1

Introducción a la Chispa Tutorial

En este capítulo, usted será capaz de:

  • Describir las limitaciones de MapReduce en Hadoop

  • Comparar lote frente los análisis en tiempo real

  • Describen la aplicación del procesamiento de secuencias y el procesamiento en memoria.

  • Explica las características y beneficios de Spark.

  • Explica cómo instalar Spark como usuario independiente,

  • Compara Spark con el ecosistema Hadoop.

Lección 2

Introducción a la Programación en Scala Tutorial

En este capítulo, usted será capaz de:

  • Explicar las características de la Scala.

  • Enumere los tipos de datos básicos y literales utilizados en Scala.

  • Enumere los operadores y métodos utilizados en Scala.

  • Discutir algunos conceptos de Scala.

Lección 3

Usar RDD para crear Aplicaciones en el Tutorial de Spark

En este capítulo, podrá:

  • Explicar las características de los Ddr

  • Explicar cómo crear Ddr

  • Describir la RDD operaciones y métodos

  • Discutir cómo ejecutar una Chispa proyecto con SBT

  • Explicar RDD funciones, y

  • Describir cómo escribir diferentes códigos en la Scala

Lección 4

Ejecutar Consultas SQL con Chispa SQL Tutorial

En este capítulo, usted será capaz de:

  • Explicar la importancia y características de SparkSQL

  • Describir los métodos para convertir los RDDs a DataFrames

  • Explicar un par de conceptos de SparkSQL, y

  • Describir el concepto de la colmena integración

Lección 5

Spark Streaming Tutorial

En este capítulo, usted será capaz de:

  • Explicar algunos conceptos de transmisión de Spark

  • Describir fuentes básicas y avanzadas

  • Explicar cómo funcionan las operaciones con estado

  • Explicar las operaciones de ventana y unión

Lección 6

En este capítulo, podrá:

  • Explicar los casos de uso y las técnicas del Aprendizaje automático.

  • Describa los conceptos clave del Aprendizaje automático de Spark.

  • Explicar el concepto de un conjunto de datos de Aprendizaje automático.

  • Analice el algoritmo de aprendizaje automático, la selección de modelos a través de validación cruzada.

Lección 7

Chispa GraphX Tutorial de Programación

En este capítulo, usted será capaz de:

  • Explicar los conceptos fundamentales de la Chispa GraphX programación

  • Discutir las limitaciones de la Gráfica de sistema en Paralelo

  • Describir las operaciones con un gráfico, y

  • Discutir el Gráfico del sistema de optimizaciones

Conclusión

Con esto, llegamos a un final acerca de lo que esto Apache Spark y Scala tutorial incluir. En el siguiente capítulo, discutiremos un Tutorial de Introducción a Spark.

{{lectureCoursePreviewTitle}} Ver Transcripción Ver Vídeo

Para saber más, tomar el Curso

Apache Spark y de la Scala de Certificación de la Formación

6160 Estudiantes

Ir a Curso

Para saber más, tomar el Curso

Apache Spark y de la Scala de Certificación de Capacitación Ir a Curso