我在Hive中有一个外部表,它使用serde来处理json记录。偶尔会有一个与表ddl数据类型不匹配的值,例如表字段定义为int,json有一个字符串值。在查询执行期间,由于类型不匹配,Hive将正确抛出元数据异常错误:
java.lang.RuntimeException: org.apache.hadoop.hive.ql.metadata.HiveException:
Hive Runtime Error while processing writable是否有一种方法可以让Hive忽略那些存在数据类型冲突的记录?
注意,json是有效的语法,因此设置serde属性(例如忽略格式错误的json )是不适用的。
示例DDL:
CREATE EXTERNAL TABLE IF NOT EXISTS test_tbl (
acd INT,
tzo INT
)
ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'
STORED AS TEXTFILE
;
ALTER TABLE test_tbl SET SERDEPROPERTIES ( "ignore.malformed.json" = "true");示例数据- TZO = alpha记录将导致错误:
{"acd":6,"tzo":4}
{"acd":6,"tzo":7}
{"acd":6,"tzo":"alpha"}发布于 2015-06-04 21:18:44
您可以设置Hive以容忍可配置的大量故障。
SET mapred.skip.mode.enabled = true;
SET mapred.map.max.attempts = 100;
SET mapred.reduce.max.attempts = 100;
SET mapred.skip.map.max.skip.records = 30000;
SET mapred.skip.attempts.to.start.skipping = 1这不是特定于蜂巢的,也可以应用于普通的MapReduce。
发布于 2015-06-04 21:10:40
我想还没有办法在蜂巢里处理这件事。我认为您可能需要一个中间步骤,使用MR,Pig等,以确保数据是健全的,然后从该结果输入。
这里可能有一个配置参数,您可以使用https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties#ConfigurationProperties-SerDes
我认为您可能可以编写自己的异常处理程序来捕获该异常,并继续使用hive.io.exception.handlers指定自定义处理程序。
或者,如果您可以将其存储为ORC文件而不是文本文件。可以使用HiveQL语句指定ORC文件格式,如下所示:
CREATE TABLE ... STORED AS ORC
ALTER TABLE ... [PARTITION partition_spec] SET FILEFORMAT ORC然后,在运行作业时,可以使用“跳过”设置:
set hive.exec.orc.skip.corrupt.data=truehttps://stackoverflow.com/questions/30653513
复制相似问题