У меня есть папка, в которой раньше были подпапки, основанные на ingestiontime
, который также является оригинальным PARTITION
, используемым в его таблице Hive.
Итак, папка выглядит как -
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200709230000/....
........
Внутри каждой папки времени приема данные представлены в формате PARQUET
.
Теперь в той же папке myStreamingData
я добавляю еще одну папку, в которой хранятся аналогичные данные, но в папке с именем businessname.
Итак, моя структура папок теперь выглядит так -
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200709230000/....
........
Поэтому мне нужно добавить данные из раздела businessname
в мою текущую таблицу улья.
Для этого я запустил ALTER
Query - (на Databricks)
%sql
alter table gp_hive_table add partition (businessname=007,ingestiontime=20200712230000) location "s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200712230000"
Но я получаю эту ошибку -
Error in SQL statement: AnalysisException: businessname is not a valid partition column in table `default`.`gp_hive_table`.;
Какую часть я здесь делаю неправильно?
Заранее спасибо.