Articles

Apache Spark & Scala Tutorial

O que é o Apache Spark?

Apache Spark é uma estrutura de computação de cluster de código aberto que foi inicialmente desenvolvida na UC Berkeley no AMPLab.

em comparação com o MapReduce de Hadoop baseado em disco, Spark fornece um desempenho 100 vezes mais rápido para algumas aplicações com primitivas na memória.

Isto torna-o adequado para algoritmos de aprendizagem de máquinas, uma vez que permite aos programas carregar dados na memória de um cluster e consultar os dados constantemente.

Um Projecto Spark contém vários componentes, tais como núcleo de Spark e conjuntos de dados distribuídos resilientes ou RDDs, Spark SQL, Spark Streaming, Machine Learning Library ou Mllib, e GraphX.

na próxima seção do tutorial Apache Spark e Scala, vamos falar sobre o que é o Apache Spark.o que é o Apache Scala?Scala é uma linguagem de programação moderna e multi-paradigmática. Foi projetado para expressar padrões gerais de programação de uma forma elegante, precisa e segura de tipo. Uma das características principais é que ele integra as características de ambas as linguagens orientadas a objetos e funcionais sem problemas.

é uma linguagem puramente orientada a objetos, como todo valor nela é um objeto. O comportamento e os tipos dos objetos são explicados através de traços e classes.

é também uma linguagem funcional, pois cada função nela é um valor. Ao fornecer uma sintaxe leve para definir funções anônimas, ele fornece suporte para funções de ordem superior.

além disso, a linguagem também permite que as funções sejam aninhadas e fornece suporte para o transporte. Ele também tem características como classes de casos e padrão de correspondência modelo de suporte de tipos algébricos.

Scala é estaticamente tipado, sendo capacitado com um sistema de tipo expressivo. O sistema impõe o uso de abstrações de forma coerente e segura. Para ser particular, este sistema suporta várias características como anotações, classes, vistas, métodos polimórficos, tipos compostos, auto-referências explicitamente tipadas e limites do tipo superior e inferior.

Quando se trata de desenvolver aplicações específicas de domínio, ele geralmente precisa de extensões de linguagem específicas de domínio. Scala, sendo extensível, fornece uma combinação excepcional de mecanismos de linguagem. Devido a isso, torna-se fácil adicionar novas construções de linguagem como bibliotecas

Na próxima seção do Apache Faísca e Scala tutorial, vamos discutir os benefícios do Apache Faísca e Scala yo profissionais e organizações.

benefícios da faísca Apache e Scala para profissionais e organizações

a seguir estão os benefícios da faísca Apache e Scala

  • Fornece altamente confiável rápido em computação de memória.

  • eficiente em consultas interativas e algoritmo iterativo.

  • capacidades de tolerância de falhas por causa da abstração primária imutável chamada RDD.

  • inbuilt machine learning libraries.

  • Fornece plataforma de processamento para streaming de dados usando streaming de faísca.

  • altamente eficiente em análise em tempo real usando spark streaming e spark sql.

  • Graphx libraries on top of spark core for graphical observations.

  • compatibilidade com qualquer api JAVA, SCALA, PYTHON, R torna a programação fácil.

na próxima seção do tutorial Apache Spark e Scala, discutiremos os pré-requisitos de Apache spark e scala.

Apache Faísca e Scala Tutorial pré-Requisitos

O pré-requisito básico do Apache Faísca e Scala Tutorial é um conhecimento fundamental de qualquer linguagem de programação é um pré-requisito para a iniciação. Espera-se que os participantes tenham compreensão básica de qualquer banco de dados, SQL e linguagem de consulta para Bancos de dados. O conhecimento funcional de sistemas baseados em Linux ou Unix, embora não obrigatório, é uma vantagem adicional para este tutorial.vamos explorar o público alvo do Tutorial Apache Spark e Scala na próxima seção.interessado em aprender mais sobre Apache Spark& Scala? Inscreva-se no nosso curso de Apache hoje!

público-alvo do Apache Spark e do Tutorial Scala

o tutorial destina-se a profissionais que aspiram a uma carreira em campos crescentes e exigentes de análise de dados em tempo real. Profissionais de análise, profissionais de pesquisa, desenvolvedores de TI, Testadores, analistas de dados, cientistas de dados, profissionais de BI e relatórios, e gestores de projetos são os principais beneficiários deste tutorial. Outros aspirantes e estudantes, que desejam obter uma compreensão completa da faísca Apache também podem se beneficiar deste tutorial.

vamos explorar o Apache Spark e Scala Tutorial Overview na próxima seção.

Apache Spark and Scala Tutorial Overview

the Apache Spark and Scala training tutorial offered by Simplilearn provides details on the fundamentals of real-time analytics and need of distributed computing platform.

Este tutorial irá:

  • explicar Scala e suas características.aumenta o teu conhecimento da arquitectura da centelha Apache.

  • explique o processo de instalação e execução de aplicações usando o Apache Spark.aumente o seu conhecimento sobre a realização de SQL, streaming e processamento em lote.

  • explicar a aprendizagem de máquinas e a análise de Grafos nos dados do Hadoop.

na próxima secção, discutiremos os objectivos do tutorial Apache Spark e Scala.

objectivos

após completar este tutorial, poderá:

  • Explicar o processo para instalar o Faísca

  • Descrever as características de Scala

  • Discutir como usar o RDD para a criação de aplicações em Faísca

  • Explicam como executar consultas SQL utilizando SparkSQL

  • Discutir as características do Faísca de Transmissão

  • Explicar as características de Ignição ML de Programação

  • Descrever as características de GraphX de Programação

Vamos explorar as lições coberto no Apache Faísca e Scala Tutorial na próxima seção.

Lições abordadas neste Apache Faísca e Scala Tutorial

Há sete lições abordadas neste tutorial. Dê uma olhada na lição de nomes que são listados abaixo

Lição Não

Nome do Capítulo

o Que Você vai Aprender

Aula 1

Introdução a Faísca Tutorial

neste capítulo, você será capaz de:

  • Descrever as limitações do MapReduce no Hadoop

  • Comparar lote vs. análise em tempo real

  • descrever a aplicação do processamento de fluxo e processamento na memória.explique as características e benefícios da faísca.explique como instalar faísca como um utilizador autónomo, Compare Spark vs. Hadoop Eco-system.

Lição 2

Introdução à Programação em Scala Tutorial

neste capítulo, você será capaz de:

  • Explicar as características da Scala.

  • listar os tipos de dados básicos e literais usados em Scala.

  • listar os operadores e métodos utilizados no Scala.

  • Discuss a few concepts of Scala.”Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson 3 Lesson:

    • Explicar as características do RDDs

    • Explicar como criar RDDs

    • Descrever o RDD operações e métodos

    • Discutir como executar uma Faísca de projeto com o SBT

    • Explicar RDD funções, e

    • Descrever como escrever códigos diferentes em Scala

Aula 4

Execução de Consultas SQL usando o Spark SQL Tutorial

neste capítulo, você vai ser capaz de:

  • Explicar a importância e as características do SparkSQL

  • Descrever os métodos para converter RDDs para DataFrames

  • Explicar alguns conceitos de SparkSQL, e

  • Descrever o conceito de ramo de integração

Lição 5

Faísca de Streaming Tutorial

neste capítulo, você vai ser capaz de:

  • Explicar alguns conceitos de Faísca de transmissão

  • Descrever básico e avançado de fontes

  • Explicar como stateful operações de trabalho;

  • Explicar janela e operações de associação

Lição 6

Faísca ML de Programação Tutorial

neste capítulo, você será capaz de:

  • a Explicar os casos de uso e técnicas de Aprendizado de Máquina.descreva os conceitos-chave da aprendizagem por faísca.

  • explicar o conceito de um conjunto de dados de aprendizagem por máquina.

  • Discuss Machine Learning algorithm, model selection via cross-validation.Lição 7 Lição 7 Lição de programação de “Spark GraphX” Tutorial de programação de “Spark GraphX”:

    • Explicar os conceitos fundamentais de Faísca GraphX de programação

    • Discutir as limitações do Gráfico, o sistema Paralelo

    • Descrevem as operações com um gráfico, e

    • de Discutir o Gráfico do sistema otimizações

Conclusão

Com isso, chegamos ao fim sobre o que esta Apache Faísca e Scala tutorial incluir. No próximo capítulo, discutiremos Uma Introdução ao tutorial Spark.

{{lectureCoursePreviewTitle}} Visualizar Transcrição Assista ao Vídeo

Para saber mais, fazer o Curso

Apache Faísca e Scala de Treinamento de Certificação

6160 Alunos

Ir para o Curso

Para saber mais, tirar o Curso

Apache Faísca e Scala de Treinamento de Certificação Ir para o Curso