Ключевой момент: HDFS-HAWQ — переход на новое оборудование

У нас есть кластер Hadoop версии PHD3.0 для 5 узлов, использующий ambari, установленный в стоечном пространстве. Нам необходимо перейти в облако Google (GCP).

Но не получая шаги Как вести следующие

Вопрос 1. Как перенести данные и конфигурацию метаданных со старого компьютера на новый. (Старая версия машины - это cantos 6.5 для целевой версии машины Centos 6.5)

Вопрос 2. Какие компоненты и папки нужно резервировать? Какие будут команды?

Вопрос 3. Как создать резервную копию узлов имен и узлов данных?

Q4: Нужно ли нам также делать резервную копию базы данных ambari?

Любая помощь в этом будет высоко оценена?


person NEO    schedule 14.11.2016    source источник


Ответы (1)


Лично я предпочел бы подготовить кластер Hadoop в GCP и перенести данные с помощью distcp в новый кластер. Для управляемых таблиц hawq переместите данные в hdfs, а затем выполните distcp. В некоторых случаях на AWS я перемещал данные в s3 и импортировал обратно в hadoop.

person sridhar paladugu    schedule 02.02.2017