Når det gjelder å lære Hadoop, er dette et veldig vanlig spørsmål som kommer til hver enkelt lærers tanker, dvs. Trenger jeg Java for å lære Hadoop ”. Denne bloggen vil hjelpe deg med å avklare alle dine tvil.
Trenger du Java for å lære Hadoop?
Et enkelt svar på dette spørsmålet er - NEI , kunnskap om Java er ikke obligatorisk for å lære Hadoop.
Du kan være klar over at Hadoop er skrevet på Java, men tvert imot vil jeg fortelle deg at Hadoop-økosystemet er ganske designet for å imøtekomme forskjellige fagpersoner som kommer fra forskjellige bakgrunner.
Når vi snakker om fagfolk fra ikke-programmeringsbakgrunn, har Hadoop-økosystemet forskjellige verktøy som de kan utnytte for å behandle Big Data som er lagret i Hadoop.
To viktige Hadoop-komponenter støtter det faktum at du kan jobbe med Hadoop uten å ha funksjonell kunnskap om Java - Gris og Hive .
Gris er et høyt nivå datastrømningsspråk og utførelsesrammeverk for parallell beregning, mens Hive er en datalagerinfrastruktur som gir dataoppsummering og ad-hoc-spørring. Gris brukes mye av forskere og programmerere, mens Hive er favoritt blant dataanalytikere.
Et interessant faktum for deg:
10 linjer gris = ca. 200 linjer med Java-kode. Sjekk ut for en Pig demo.
Så uten å skrive kompleks Java-kode, kan du oppnå de samme implementeringene veldig enkelt ved hjelp av Pig. Igjen snakket om SQL, det ble mye brukt av Facebook-ingeniører og analytikere, og derfor utviklet Facebook Hive for å gi SQL-lignende spørsmål på toppen av Hadoop.
Disse språkene er enkle å lære, og mer enn 80% av Hadoop-prosjektene dreier seg om dem.
Hvordan tilpasse deg Hadoop Jobs
For å utforske jobbroller knyttet til Hadoop uten å ha Java som en forutsetning, må du bare orientere deg om to kritiske aspekter ved Hadoop Oppbevaring og Behandling . For en jobb rundt Hadoop-lagring kan du lære hvordan Hadoop-klyngen fungerer, og hvordan Hadoop gjør dataene sikre og stabile. For dette, å kjenne til de forskjellige nyansene i Hadoop Distributed File System ( HDFS ) og HBase , dvs. Hadoops distribuerte NoSQL-database, vil hjelpe enormt.
Hvis du velger å jobbe på behandlingssiden av Hadoop, har du Pig and Hive til disposisjon, som automatisk konverterer koden din i backend til å fungere med den Java-baserte MapReduce-klyngeprogrammeringsmodellen.
sortering av en array c ++
Så uten å kjøre MapReduce, kan du fremdeles kontrollere hele livssyklusen til prosjektet ditt. Så lenge du mestrer Pig and Hive, sammen med HDFS og HBase, kan Java ta baksetet.
Jeg håper dette bildet beviser poengene mine.
Big Data og Hadoop-kurset fra Edureka er designet for å forbedre din kunnskap og ferdigheter for å bli en vellykket Hadoop-utvikler. Klikk i tilfelle du ønsker å vite mer.
Sjeldne krav til Java-koding
Men, Java-koding er nødvendig hvis du vil legge til brukerdefinerte funksjoner i Pig, Hive og andre verktøy. Dette er bare nødvendig hvis du ønsker å opprette egendefinerte input / output formater. Vi informerer gjerne om at dette kravet er en sjeldenhet.
Et annet sjeldent scenario der grunnleggende Java-koding kan være nødvendig er for feilsøking. I sjeldne tilfeller et Hadoop-program krasjer, må du kanskje feilsøke programmet ved hjelp av Java.
Fortsatt ikke overbevist om at du kan lære Hadoop uten å kjenne Java? Se webseminaret nedenfor og lær hvordan Hadoop er relevant for en person med ikke-programmeringsbakgrunn!
Edureka er en global e-læringsplattform for live, instruktørledet opplæring i trendteknologi. De tilbyr kortvarige kurs støttet av online ressurser, sammen med 24 × 7 livstidsstøtte. Edureka har en urokkelig forpliktelse til å hjelpe yrkesaktive med å følge med på skiftende teknologier og å imøtekomme akademiske institusjoners manglende evne til å holde tritt med skiftende behov. Med et eksisterende lærersamfunn i mer enn 100 land er Edurekas visjon å gjøre læring enkelt, interessant, rimelig og tilgjengelig for millioner av elever over hele verden.
Relaterte innlegg:
Kom i gang med Big Data og Hadoop