Cloudera Inc.是一家位于Palo Alto的企业软件公司,提供基于Apache Hadoop的软件和服务。
来自HDFS的OraclePropertyGraphDataLoader loadData
我正在使用Spark + Hive来构建图形和关系,并将平面OPV / OPE文件导出到HDFS,每个减速器一个OPV / OPE CSV。我们所有的图形数据库都已准备好加载到OPG / PGX上进行分析......
Hortonworks和cloudera公司现在合并,哪种认证更好?请分享您对此的看法。
当我们尝试在sbt文件中使用cloudera上游版本时,sbt程序集无法构建
我正在尝试使用sbt-assembly使用Cloudera上游版本构建Scala项目。抛出以下异常:> sbt assembly Java HotSpot(TM)64位服务器VM警告:忽略选项...
手动将主机添加到服务器后完成Cloudera Server的安装后,会显示错误消息:无法复制安装文件/tmp/scm_prepare_node.fQWKTg4D无法验证...
Lineage是否适用于Cloudera的企业试用版?我看到血统标签,但我不会看到我从另一个蜂巢表派生的蜂巢表的血统。不幸的是,这......
使用sqoop将表从RDBMS导入HIVE后是否仍然存在约束?
当我们使用sqoop import将RDBMS表传输到HIVE时,表的约束如主键是否仍然存在?即,作为主键的表的列仍然是......
无法在Cloudera Quickstart VM(5.10)中安装spark 2.2
我在这里关注了博客(下面提到的)并下载了包裹并按要求放置。如果安装了任何人和步骤,请告诉我。 (HTTPS://www.cloudera.com/documentation / ...
我正在尝试使用livy,这是我第一次使用REST api。在本教程之后,当我输入r = requests.post(statements_url,data = json.dumps(data),headers = headers)然后输入r.json()...
Cloudera Impala INVALIDATE METADATA
正如在impala教程中讨论的那样,Impala使用Hive共享的Metastore。但是有人提到如果你使用hive在表上创建或做一些版本,你应该执行INVALIDATE ......
我正在运行此查询:设置hive.limit.query.max.table.partition = 9000;选择不同的ps169作为hotel_code,pd5作为city_code,datediff(to_date(pd32),to_date(FROM_UNIXTIME(UNIX_TIMESTAMP())))作为ap1 ...
我一直在玩Cloudera,我在开始工作之前定义了簇的数量,然后使用cloudera管理器确保一切都在运行。我正在开发一个新项目......
hadoop,python,subprocess失败,代码为127
我正在尝试使用mapreduce运行非常简单的任务。 mapper.py:#!/ usr / bin / env python导入sys.stdin中的行sys:print line my txt file:qwerty asdfgh zxc运行作业的命令行:...
将数据插入到具有空格的列名称的镶木地板格式表中时,我遇到错误。使用Cloudera版本的Hive客户端CREATE TABLE testColumNames(First Name string)...
HDFS作为cloudera quickstart docker中的音量
我对hadoop和docker都很新。我一直在努力扩展cloudera / quickstart docker image docker文件,并希望挂载目录表单主机并将其映射到hdfs位置,...
我在我的本地机器上运行了一个R,我的蜂巢服务器在使用cloudera的aws机器上配置并启用了kerberos。我现在无法使用...从本地R实例连接到hive服务器
我一直在使用Sqoop,hive和Impala。我的Sqoop作业从SQL Server获取一个字段为datetime的字段,以写入存储为textfile的TABLE1。 TABLE1中的字段具有时间戳格式....
我有一个基于6节点cloudera的hadoop集群,我正在尝试从oozie中的sqoop操作连接到oracle数据库。我已将我的ojdbc6.jar复制到sqoop lib位置(对我来说......
我们正在一个项目中解码实时消息文件,这些文件以文本文件的形式传输给我们。该文件是非结构化文本,但我们有一个规范来解码它。有 ...
我们要求在第0天我们将运行历史火花作业以将批量数据加载到HBase中。每天发布,我们只会将结束日数据添加到HBase。要处理这个......