iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >Hue3.9如何搭建集成HDFS和Hive
  • 853
分享到

Hue3.9如何搭建集成HDFS和Hive

2023-06-02 23:06:06 853人浏览 薄情痞子
摘要

这篇文章给大家分享的是有关Hue3.9如何搭建集成hdfs和Hive的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。运行环境:Centos 6.5hadoop-2.6.0-cdh6.7.0hadoop-2.6.0-

这篇文章给大家分享的是有关Hue3.9如何搭建集成hdfsHive的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

运行环境:

  • Centos 6.5

  • hadoop-2.6.0-cdh6.7.0

  • hadoop-2.6.0-cdh6.7.0

  • hive-1.1.0-cdh6.7.0

  • hue-3.9.0-cdh6.7.0

  • sqoop-1.4.6-cdh6.7.0

Hue:

    官网地址:Http://gethue.com/

    官网安装说明:http://cloudera.GitHub.io/hue/latest/admin-manual/manual.html#centosrhel 
    官网github地址:http://github.com/cloudera/hue

    Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于python WEB框架Django实现的。通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行mapReduce Job,Hive

等等    

支持功能:

  • 数据库查询编辑器,支持 Hive, Impala, MySql, PostGres, sqlite and oracle

  • 动态查询仪表盘,支持 Solr

  • 支持 spark 编辑器和仪表盘

  • 浏览器查看状态,支持 YARN, HDFS, Hive table Metastore, HBase, ZooKeeper

  • 支持 Pig Editor, Sqoop2, Oozie workflows 编辑器和仪表盘

  • 将数据导入hdfs

CentOS6.5依赖环境:

yum install -y ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plaiGCc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make Mysql mysql-devel openldap-devel Python-devel sqlite-develgmp-devel

下载CDH5.7.0平台Hue:

wget http://archive-primary.cloudera.com/cdh6/cdh/5/http://archive-primary.cloudera.com/cdh6/cdh/5/hue-3.9.0-cdh6.7.0.tar.gz

环境变量配置:

vim /.bash_profileexport HUE_HOME=/home/hadoop/app/hue-3.9.0export PATH=$HUE_HOME/bin:$PATHsource ~/.bash_profile

编译源码(Hue3.9)

tar -xzvf hue-3.9.0-cdh6.7.0.tar.gz  -C ~/app/    -- 检查解压后的用户和用户组cd hue-3.9.0make apps

编译过程需要下很多模块和包,所以根据你的网速可能会需要编译很久。

最后出现xxx post-processed说明编译成功

1190 static files copied to '/home/hadoop/app/hue-3.9.0/build/static', 1190 post-processed.make[1]: Leaving directory `/home/hadoop/app/hue-3.9.0/apps'

Hue配置全局文件($HUE_HOME/desktop/conf/hue.ini)

[desktop]secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5ohttp_host=hadoop001time_zone=Asia/Shanghai

Hue集成Hadoop($HADOOP_HOME/etc/hadoop)

hdfs-site.xml<property><name>dfs.webhdfs.enabled</name><value>true</value></property>core-site.xml<property><name>hadoop.proxyuser.hue.hosts</name><value>*</value></property><property><name>hadoop.proxyuser.hue.groups</name><value>*</value></property>httpfs-site.xml<property><name>httpfs.proxyuser.hue.hosts</name><value>*</value></property><property><name>httpfs.proxyuser.hue.groups</name><value>*</value></property>

1 Hue集成Hadoop($HUE_HOME/desktop/conf/hue.ini)

[hadoop]  # Configuration for HDFS Namenode  # ------------------------------------------------------------------------  [[hdfs_clusters]]    # HA support by using HttpFs    [[[default]]]      # Enter the filesystem uri      fs_defaultfs=hdfs://localhost:8020          # NameNode logical name.      ## logical_name=      # Use WebHdfs/HttpFs as the communication mechanism.      # Domain should be the NameNode or HttpFs host.      # Default port is 14000 for HttpFs.      webhdfs_url=    -- 取消注释

Hue集成Hive($HIVE_HOME/conf/hive-site.xml)

  <property>                <name>hive.server2.thrift.bind.port</name>                <value>10000</value>        </property>        <property>                <name>hive.server2.thrift.bind.host</name>                <value>hadoop001</value>        </property>        <property>                <name>hive.server2.long.polling.timeout</name>                <value>5000</value>        </property>         <property>            <name>hive.server2.authentication</name>           <value>NOSASL</value>         </property>

1.Hue集成Hive($HUE_HOME/desktop/conf/hue.ini)

[beeswax]  # Host where HiveServer2 is running.  # If Kerberos security is enabled, use fully-qualified domain name (FQDN).  hive_server_host=hadoop001  # Port where HiveServer2 Thrift server runs on.  hive_server_port=10000  # Hive configuration directory, where hive-site.xml is located  hive_conf_dir=/home/hadoop/app/apache-hive-2.2.0-bin/conf

启动Hue

-- 先启动Hive[hadoop@hadoop001 bin]$ ./hiveserver2 --hiveconf hive.server2.thrift.port=10000-- 启动hue服务[hadoop@hadoop001 hue-3.9.0]$ build/env/bin/supervisor

访问Hue操作hive

http://IP:8888/

由于初次创建的用户admin用户 只能权限操作HDFS上/user/admin/* 目录

如果要操作/user/hadoop/目录,hue必须创建hadoop用户操作;

遇到的权限报错:

Note: you are a Hue admin but not a HDFS superuser, "hadoop" or part of HDFS supergroup, "supergroup".

解决办法:

# This should be the hadoop cluster admindefault_hdfs_superuser=hadoop      -- HDFS 修改为 hadoop

Hue3.9如何搭建集成HDFS和Hive

Hue3.9如何搭建集成HDFS和Hive

Hue3.9如何搭建集成HDFS和Hive

感谢各位的阅读!关于“Hue3.9如何搭建集成HDFS和Hive”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

--结束END--

本文标题: Hue3.9如何搭建集成HDFS和Hive

本文链接: https://www.lsjlt.com/news/231631.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Hue3.9如何搭建集成HDFS和Hive
    这篇文章给大家分享的是有关Hue3.9如何搭建集成HDFS和Hive的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。运行环境:CentOS 6.5hadoop-2.6.0-cdh6.7.0hadoop-2.6.0-...
    99+
    2023-06-02
  • HDFS如何与云存储服务集成
    HDFS可以与云存储服务进行集成,以扩展其存储容量和灵活性。以下是一些与云存储服务集成HDFS的方法: 使用Hadoop的S3A文...
    99+
    2024-05-08
    HDFS
  • 如何进行Flume Agent的3台收集+1台聚合到hdfs的搭建
    本篇文章给大家分享的是有关如何进行Flume Agent的3台收集+1台聚合到hdfs的搭建,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。【log收集】:机器名称 &...
    99+
    2023-06-03
  • 如何搭建Visual Studio 2005集成开发环境
    这篇文章主要介绍如何搭建Visual Studio 2005集成开发环境,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!VisualStudio2005和.NETFramework2.0将在应用程序开发的所有方面取得大...
    99+
    2023-06-17
  • Nacos集群如何搭建
    小编给大家分享一下Nacos集群如何搭建,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧! 一、Nacos 简介Nacos(Naming and Confi...
    99+
    2023-06-15
  • RabbitMQ集群如何搭建
    这篇文章主要讲解了“RabbitMQ集群如何搭建”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“RabbitMQ集群如何搭建”吧!1.前提erlang安装版本一致RabbitMQ安装版本一致以...
    99+
    2023-06-26
  • 如何搭建MySQL集群
    这篇文章给大家介绍如何搭建MySQL集群,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。概述MySQL Cluster 是MySQL 适合于分布式计算环境的高实用、可拓展、高性能、高冗余...
    99+
    2024-04-02
  • redis集群如何搭建
    这篇文章给大家分享的是有关redis集群如何搭建的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。介绍安装环境与版本用两台虚拟机模拟6个节点,一台机器3个节点,创建出3 master...
    99+
    2024-04-02
  • 如何搭建redis集群
    这篇文章主要讲解了“如何搭建redis集群”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“如何搭建redis集群”吧!redis集群搭建在开始redis集群搭建之前,我们先简单回顾一下redi...
    99+
    2023-06-25
  • hadoop如何搭建集群
    搭建Hadoop集群需要以下步骤:1. 确保所有节点的操作系统版本一致,并配置好网络环境。2. 在每个节点上安装Java环境,并设置...
    99+
    2023-08-16
    hadoop
  • Zookeeper集群如何搭建
    这篇文章主要介绍“Zookeeper集群如何搭建”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“Zookeeper集群如何搭建”文章能帮助大家解决问题。一、Zookeeper原理简介ZooKeeper...
    99+
    2023-06-28
  • Oozie如何与Hive、Pig等其他Hadoop组件集成
    Oozie可以与Hive、Pig等其他Hadoop组件集成,以实现复杂的数据处理工作流。下面是Oozie与Hive和Pig集成的步骤...
    99+
    2024-04-02
  • mysql中如何搭建集群
    mysql中如何搭建集群,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。MySQL 群集是 MySQL 适合于分布式计算环境的高可用、高冗余...
    99+
    2024-04-02
  • Minikube如何搭建Kubernetes集群
    这篇文章主要介绍了Minikube如何搭建Kubernetes集群,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。Minikube打开 https://github....
    99+
    2023-06-29
  • docker如何搭建kafka集群
    本文小编为大家详细介绍“docker如何搭建kafka集群”,内容详细,步骤清晰,细节处理妥当,希望这篇“docker如何搭建kafka集群”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。一、原生Docker命令 ...
    99+
    2023-06-30
  • docker如何搭建redis集群
    要搭建Redis集群,可以使用Docker来进行部署。下面是一种常见的方法:1. 创建一个文件夹,在文件夹中创建一个名为`docke...
    99+
    2023-08-23
    docker redis
  • 如何在Mac OSX中搭建Python集成开发环境
    今天就跟大家聊聊有关如何在Mac OSX中搭建Python集成开发环境,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。首先到Python官网下载python,python官网链接这里选...
    99+
    2023-06-17
  • 在mac上如何安装和搭建Hadoop集群
    在 macOS 上安装和搭建 Hadoop 集群可以分为以下步骤: 安装 Java Hadoop 需要依赖 Java 运行环境,因此需要先安装 Java。macOS 自带了 Java,可以通过终端命令 java -version 来查看 J...
    99+
    2023-10-25
    hadoop macos 大数据
  • Docker-Compose如何搭建Redis集群
    本篇内容介绍了“Docker-Compose如何搭建Redis集群”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1. 集群配置3主+3从由于...
    99+
    2023-07-05
  • windows下如何搭建Consul集群
    这篇文章主要介绍“windows下如何搭建Consul集群”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“windows下如何搭建Consul集群”文章能帮助大家解决问题。Consul 是 Hashi...
    99+
    2023-07-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作