Установка и настройка Hadoop в псевдо-распределенном режиме в Windows 10

Опубликовано: 18 Февраля, 2022

Чтобы выполнить настройку и установку Hadoop в псевдораспределенном режиме в Windows 10, выполните следующие действия, указанные ниже. Обсудим по порядку.

Шаг 1: Загрузите двоичный пакет:

Загрузите последнюю версию двоичного файла со следующего сайта следующим образом.

 http://hadoop.apache.org/releases.html

Для справки вы можете проверить сохранение файла в папке следующим образом.

C:BigData

Шаг 2. Распакуйте двоичный пакет.

Откройте Git Bash и смените каталог (cd) на папку, в которой вы сохраняете двоичный пакет, а затем разархивируйте его следующим образом.

 $ cd C:  BigData
MINGW64: C:  BigData
$ tar -xvzf hadoop-3.1.2.tar.gz

В моей ситуации двойная часть Hadoop извлекается в C: BigData hadoop-3.1.2.

Затем перейдите в этот репозиторий GitHub и загрузите органайзер розеток в качестве скорости, как показано ниже. Сконцентрируйте компресс и скопируйте все документы, находящиеся под конвертом приемника, в C: BigData hadoop-3.1.2 bin. Замените и текущие записи.

Шаг 3: Создайте папки для datanode и namenode:

  • Перейдите к C: /BigData/hadoop-3.1.2 и сделайте "информация" органайзера. Внутри «информационного» конверта сделайте два органайзера «datanode» и «namenode». Ваши документы на HDFS будут находиться под конвертом датанода.

  • Установить переменные среды Hadoop
  • Hadoop требует, чтобы были установлены следующие переменные среды.
 HADOOP_HOME = "C:  BigData  hadoop-3.1.2"
HADOOP_BIN = "C:  BigData  hadoop-3.1.2  bin"
JAVA_HOME = <Корень вашей установки JDK> »
  • Чтобы установить эти переменные, перейдите в «Мой компьютер» или «Этот компьютер».
 Щелкните правой кнопкой мыши -> Свойства -> Расширенные настройки системы -> Переменные среды.
  • Нажмите «Создать», чтобы создать новую переменную среды.

  • Если у вас нет представленной JAVA 1.8, вам нужно сначала загрузить и представить ее. Если теперь установлена переменная климата JAVA_HOME, проверьте, есть ли в пути пробелы (например, C: Program Files Java …). Пробелы в пути JAVA_HOME приведут вас к проблемам. Есть трюк, чтобы обойти это. Замените 'Program Files' на 'Progra ~ 1' в переменной value. Гарантируйте, что вариант Java - 1.8, а JAVA_HOME выделяет JDK 1.8.

Шаг 4. Создание краткого имени домашнего пути Java

  • Установить переменные среды Hadoop
  • Изменить переменную среды PATH

  • Нажмите New и добавьте% JAVA_HOME%,% HADOOP_HOME%,% HADOOP_BIN%,% HADOOP_HOME% / sin в свой PATH один за другим.

  • Теперь мы установили переменные среды, нам нужно их проверить. Откройте новую командную строку Windows и запустите команду echo для каждой переменной, чтобы убедиться, что им присвоены желаемые значения.
 эхо% HADOOP_HOME%
эхо% HADOOP_BIN%
эхо% ПУТЬ%
  • Если факторы еще не установлены, на этом этапе это, вероятно, может быть связано с тем, что вы пробуете их на старом собрании. Убедитесь, что вы открыли еще один бриф по заказу, чтобы проверить их.

Шаг 5. Настройте Hadoop

После настройки переменных среды нам нужно настроить Hadoop, отредактировав следующие файлы конфигурации.

 hadoop-env.cmd
core-site.xml
hdfs-site.xml
mapred-site.xml
пряжа-site.xml
hadoop-env.cmd

Сначала давайте настроим файл среды Hadoop. Откройте C: BigData hadoop-3.1.2 etc hadoop hadoop-env.cmd и добавьте содержимое внизу внизу

 установить HADOOP_PREFIX =% HADOOP_HOME%
установить HADOOP_CONF_DIR =% HADOOP_PREFIX%  etc  hadoop
установить YARN_CONF_DIR =% HADOOP_CONF_DIR%
установить PATH =% PATH%;% HADOOP_PREFIX%  bin

Шаг 6. Отредактируйте hdfs-site.xml

После редактирования core-site.xml вам необходимо установить коэффициент репликации и расположение namenode и datanodes. Откройте C: BigData hadoop-3.1.2 etc hadoop hdfs-site.xml и ниже содержимое в тегах <configuration> </configuration>.

 <конфигурация>
 <собственность>
    <name> dfs.replication </name>
    <value> 1 </value>
 </property>
 <собственность>
    <имя> dfs.namenode.name.dir </name>
    <значение> C:  BigData  hadoop-3.2.1  data  namenode </value>
 </property>
 <собственность>
    <name> dfs.datanode.data.dir </name>
    <значение> C:  BigData  hadoop-3.1.2  data  datanode </value>
 </property>
</configuration>

Шаг 7. Отредактируйте core-site.xml

Теперь настройте параметры Hadoop Core. Откройте C: BigData hadoop-3.1.2 etc hadoop core-site.xml и ниже содержимое в тегах <configuration> </configuration>.

 <конфигурация>
 <собственность>
   <name> fs.default.name </name>
   <value> hdfs: //0.0.0.0: 19000 </value>
 </property>  
</configuration>

Шаг 8: конфигурации ПРЯЖИ

Отредактируйте файл yarn-site.xml

Убедитесь, что следующие записи существуют, как указано ниже.

 <конфигурация> <свойство>
<name> yarn.nodemanager.aux-services </name>
<value> mapreduce_shuffle </value> </property>
<собственность>
<name> yarn.nodemanager.aux-services.mapreduce.shuffle.class </name>
<value> org.apache.hadoop.mapred.ShuffleHandler </value>
</property>
</configuration>

Шаг 9. Отредактируйте mapred-site.xml

Наконец, как насчет того, чтобы расположить свойства для системы Map-Reduce. Откройте C: BigData hadoop-3.1.2 etc hadoop mapred-site.xml и под содержимым внутри ярлыков <configuration> </configuration>. Если вы не видите mapred-site.xml, откройте запись mapred-site.xml.template и переименуйте ее в mapred-site.xml.

 <конфигурация>
 <собственность>
    <name> mapreduce.job.user.name </name> <value>% USERNAME% </value>
 </property>
 <собственность>
    <name> mapreduce.framework.name </name>
    <value> пряжа </value>
 </property>
 <собственность>
    <name> yarn.apps.stagingDir </name> <value> / user /% USERNAME% / staging </value>
 </property>
 <собственность>
    <name> mapreduce.jobtracker.address </name>
    <value> местный </value>
 </property>
</configuration>

Проверьте, присутствует ли файл C: BigData hadoop-3.1.2 etc hadoop slaves, если он еще не создан, добавьте в него localhost и сохраните.

Шаг 10: Формат имени узла:

Чтобы организовать узел имени, откройте другую командную строку Windows и выполните приведенный ниже порядок. Это может дать вам несколько увещеваний, не обращайте на них внимания.

  • hadoop namenode -format

Форматирование узла имени Hadoop

Шаг 11: Запустите Hadoop:

Откройте еще одно краткое описание команд Windows, запустите его от имени администратора, чтобы сохранять стратегическое расстояние от ошибок авторизации. При открытии выполнить начальный заказ all.cmd. Поскольку мы добавили% HADOOP_HOME% sbin в переменную PATH, вы можете запустить этот заказ из любого конверта. Если вы этого не сделали, перейдите в органайзер% HADOOP_HOME% sbin и запустите заказ.

Вы можете проверить приведенный ниже снимок экрана для справки. Откроются 4 новых окна и терминалы cmd для 4 процессов демона, как показано ниже.

  • Namenode
  • датанод
  • менеджер узлов
  • менеджер ресурсов

Не закрывайте эти окна, сворачивайте их. Закрытие окон завершит работу демонов. Вы можете запустить их в фоновом режиме, если не хотите видеть эти окна.

Шаг 12: веб-интерфейс Hadoop

В заключение, как насчет того, чтобы увидеть, как обстоят дела у демонов Hadoop? Также вы можете использовать веб-интерфейс для широкого круга авторитетных и наблюдательных целей. Откройте вашу программу и начните.

Шаг 13: диспетчер ресурсов

Откройте localhost: 8088, чтобы открыть диспетчер ресурсов.

Шаг 14: Диспетчер узлов

Откройте localhost: 8042, чтобы открыть диспетчер узлов.

Шаг 15: Имя узла:

Откройте localhost: 9870, чтобы проверить работоспособность Name Node.

Шаг 16: Узел данных:

Откройте localhost: 9864, чтобы проверить узел данных.