Mestret Hadoop? På tide å komme i gang med Apache Spark



Dette blogginnlegget forklarer hvorfor du må komme i gang med Apache Spark etter Hadoop og hvorfor lære Spark etter å ha mestret hadoop kan gjøre underverker for karrieren din!

Hadoop er, som vi alle vet, plakatgutten med store data. Som et programvarerammeverk som er i stand til å behandle elefantiske andeler av data, har Hadoop kommet seg til toppen av CIO-buzzwords-listen.





Imidlertid har den enestående økningen av minnestakken introdusert big data-økosystemet til et nytt alternativ for analyse. MapReduce-måten for analyse erstattes av en ny tilnærming som tillater analyse både innenfor Hadoop-rammen og utenfor den. Apache Spark er det friske nye ansiktet til stor dataanalyse.

hvilket av følgende er eksempler på kontrolluttalelser?

Big data-entusiaster har sertifisert Apache Spark som den hotteste databehandlingsmotoren for big data i verden. Det skaper raskt MapReduce og Java fra stillingene sine, og jobbtrender gjenspeiler denne endringen. I følge en undersøkelse fra TypeSafe vurderer eller undersøker 71% av globale Java-utviklere for tiden Spark, og 35% av dem har allerede begynt å bruke den. Det er for tiden etterspurt gnisteksperter, og i ukene etterpå forventes antall gnistrelaterte jobbmuligheter bare å gå gjennom taket.



Så hva er det med Apache Spark som får det til å vises på toppen av hver CIOs-oppgaveliste?

pl sql tutorial med eksempler

Her er noen av de interessante funksjonene i Apache Spark:

  • Hadoop-integrasjon - Spark kan fungere med filer som er lagret i HDFS.
  • Spark’s Interactive Shell - Spark er skrevet i Scala, og har sin egen versjon av Scala-tolken.
  • Spark’s Analytic Suite - Spark kommer med verktøy for interaktiv spørreanalyse, storskala grafbehandling og analyse og sanntidsanalyse.
  • Motstandsdyktige distribuerte datasett (RDDs) - RDD er distribuerte objekter som kan lagres i minnet, over en klynge av beregningsnoder. De er de viktigste dataobjektene som brukes i Spark.
  • Distribuerte operatører - Foruten MapReduce, er det mange andre operatører man kan bruke på RDD-er.

Organisasjoner som NASA, Yahoo og Adobe har forpliktet seg til Spark. Dette sier John Tripier, Alliances and Ecosystem Lead at Databricks, 'Adopsjonen av Apache Spark av store og små bedrifter vokser i en utrolig hastighet i et bredt spekter av bransjer, og etterspørselen etter utviklere med sertifisert kompetanse er raskt etterfølgende ”. Det har aldri vært et bedre tidspunkt å lære Spark hvis du har bakgrunn i Hadoop.



Edureka har spesielt kuratert et kurs om Apache Spark & ​​Scala, co-laget av virkelige bransjeutøvere. For en differensiert live e-læringsopplevelse sammen med bransjerelevante prosjekter, sjekk ut kurset vårt. Nye partier starter snart, så sjekk ut kurset her: .

Har du et spørsmål til oss? Vennligst nevn det i kommentarfeltet, så kommer vi tilbake til deg.

Relaterte innlegg:

kan en konstruktør være privat

Apache Spark mot Hadoop MapReduce