Find Jobs
Hire Freelancers

Effective Mass Crawling using Apache Nutch storing data on HDFS - 27/04/2018 12:54 EDT

$30-250 USD

Lezárt
Kiadva ekkor: majdnem 6 évvel ezelőtt

$30-250 USD

Teljesítéskor fizetve
Have to crawl the data and store it to HDFS using Apache nutch with the integration of Hadoop!
Projektazonosító: 16803276

A projektről

6 ajánlat
Távolról teljesíthető projekt
Aktiválva: 6 évvel ezelőtt

Szeretne pénzt keresni?

A Freelancer oldalán történő árajánlatadás előnyei

Határozzon meg költségvetést és időkeretet
Kapja meg fizetését a munkáért
Vázolja ajánlatát
Ingyen regisztrálhat és adhat árajánlatot munkákra
6 szabadúszó adott átlagosan $244 USD összegű árajánlatot erre a munkára
Felhasználó avatár
Hi, I have experience of setting up Nutch to store data in Hadoop/Hbase. Please let me know if you are interested and I am available to start right away.
$555 USD 10 napon belül
4,0 (17 értékelés)
5,7
5,7
Felhasználó avatár
Hello sir, I have experinece in HDFS and Hadoop. for more info ping me. I did several project in this field.
$155 USD 3 napon belül
4,4 (5 értékelés)
4,5
4,5
Felhasználó avatár
Hi, Expertise for crawl data using Hdfc and hadoop In regards of your job post, I would like to inform that we have skilled professionals team who have strong skills for it. In continuation, i request to drop your queries so we can go through it and provide you right solution. Look forward to hearing you. Thanks Ricky
$222 USD 3 napon belül
0,0 (1 értékelés)
0,0
0,0
Felhasználó avatár
Dear Client With more than 10 year experiences in Big Data Hadoop, I have following experiences with best projects... Implementation and ongoing administration of Hadoop infrastructure, Cluster maintenance as well as creation and removal of nodes,* HDFS support and maintenance.. Cluster Monitoring and Troubleshooting Design, implement and maintain security Works with application teams to install operating system and Hadoop updates, patches, version upgrades. Deploying a secure platform based on Kerberos authentication and apache ranger authorization, Including Hadoop, HBase, Kafka, spark, ambari ,Sqoop,Hortanworks,Cloudera VM ware,Elastic search,Cassadra. Automated deployment of spark, Flink clusters Spark, spark streaming, Flink, storm kernel Integrating Jupyter notebooks containing python, R, Scala for deployment in the spark, storm and flink environments Introduction of management of quotas, including HDFS, HBase, Kafka Machine Learning with TensorFlow - Build a solution which can recognize images on search words and can run on distributed computing like Hadoop/ Spark etc. for a photo storage company.. Setting up Eclipse project, maven dependencies to add required Map Reduce Libraries Coding, packaging and deploying project on hadoop cluster to understand how to deploy/ run map reduce on Hadoop Cluster Twitter Sentiment Analytics - Collect and real time data (JSON format), and perform sentiment analysis on continuously flowing streaming data Regards Suzan
$155 USD 3 napon belül
0,0 (0 értékelés)
0,0
0,0

Az ügyfélről

AZERBAIJAN zászlója
Azerbaijan
1,4
1
Fizetési mód hitelesítve
Tagság kezdete: márc. 1, 2018

Ügyfél-hitelesítés

Köszönjük! E-mailben elküldtük a linket, melyen átveheti ajándék egyenlegét.
E-mailje elküldése során valami hiba történt. Kérjük, próbálja újra.
Regisztrált Felhasználók Összes Közzétett Munka
Freelancer ® is a registered Trademark of Freelancer Technology Pty Limited (ACN 142 189 759)
Copyright © 2024 Freelancer Technology Pty Limited (ACN 142 189 759)
Előnézet betöltése
Hozzáférést adott a helymeghatározáshoz.
Belépési munkamenete lejárt, és kijelentkeztettük. Kérjük, lépjen be újra.