iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >spark怎么读取hbase表
  • 180
分享到

spark怎么读取hbase表

2023-06-03 01:06:56 180人浏览 薄情痞子
摘要

这篇文章主要介绍了spark怎么读取HBase表的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇spark怎么读取hbase表文章都会有所收获,下面我们一起来看看吧。一.场景:     spa

这篇文章主要介绍了spark怎么读取HBase表的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇spark怎么读取hbase表文章都会有所收获,下面我们一起来看看吧。

一.场景:
    spark通过phoenix 读取hbase表,其实说白了先要去ZooKeeper建立connection。

二.代码:

  1. val zkUrl = "192.168.100.39,192.168.100.40,192.168.100.41:2181"

  2. val fORMatStr = "org.apache.phoenix.spark"

  3. val oms_orderinfoDF = spark.read.format(formatStr)

  4.   .options(Map("table" -> "oms_orderinfo", "zkUrl" -> zkUrl))

  5.   .load


三.查看SparkJob日志:

  1. 17/10/24 03:25:25 INFO zookeeper.ClientCnxn: Opening Socket connection to server hadoop40/192.168.100.40:2181. Will not attempt to authenticate using SASL (unknown error)

  2. 17/10/24 03:25:25 INFO zookeeper.ClientCnxn: Socket connection established, initiating session, client: /192.168.100.48:35952, server: hadoop40/192.168.100.40:2181

  3. 17/10/24 03:25:25 WARN zookeeper.ClientCnxn: Session 0x0 for server hadoop40/192.168.100.40:2181, unexpected error, closing socket connection and attempting reconnect

  4. java.io.IOException: Connection reset by peer

  5.     at sun.NIO.ch.FileDispatcherImpl.read0(Native Method)

  6.     at sun.nio.ch.SocketDispatcher.read(SocketDispatcher.java:39)

  7.     at sun.nio.ch.IOUtil.readIntoNativeBuffer(IOUtil.java:223)

  8.     at sun.nio.ch.IOUtil.read(IOUtil.java:192)

  9.     at sun.nio.ch.SocketChannelImpl.read(SocketChannelImpl.java:380)

  10.     at org.apache.phoenix.shaded.org.apache.zookeeper.ClientCnxnSocketNIO.doIO(ClientCnxnSocketNIO.java:68)

  11.     at org.apache.phoenix.shaded.org.apache.zookeeper.ClientCnxnSocketNIO.doTransport(ClientCnxnSocketNIO.java:355)

  12.     at org.apache.phoenix.shaded.org.apache.zookeeper.ClientCnxn$SendThread.run(ClientCnxn.java:1081)

  13. 17/10/24 03:25:25 INFO yarn.ApplicationMaster: Deleting staging directory hdfs://nameservice1/user/hdfs/.sparkStaging/application_1507703377455_4854

  14. 17/10/24 03:25:25 INFO util.ShutdownHookManager: Shutdown hook called


四.查看Zookeeper日志:
  1. 2017-10-24 03:25:22,498 WARN org.apache.zookeeper.server.NiOServerCnxnFactory: Too many connections from /192.168.100.40 - max is 500

  2. 2017-10-24 03:25:25,588 WARN org.apache.zookeeper.server.NIOServerCnxnFactory: Too many connections from /192.168.100.40 - max is 500

  3. 2017-10-24 03:25:25,819 WARN org.apache.zookeeper.server.NIOServerCnxnFactory: Too many connections from /192.168.100.40 - max is 500

  4. 2017-10-24 03:25:26,092 WARN org.apache.zookeeper.server.NIOServerCnxn: caught end of stream exception

  5. EndOfStreamException: Unable to read additional data from client sessionid 0x15ed091ee09897d, likely client has closed socket

  6.     at org.apache.zookeeper.server.NIOServerCnxn.doIO(NIOServerCnxn.java:231)

  7.     at org.apache.zookeeper.server.NIOServerCnxnFactory.run(NIOServerCnxnFactory.java:208)

  8.     at java.lang.Thread.run(Thread.java:745)

  9. 2017-10-24 03:25:26,092 INFO org.apache.zookeeper.server.NIOServerCnxn: Closed socket connection for client /192.168.100.40:47084 which had sessionid 0x15ed091ee09897d

  10. 2017-10-24 03:25:26,092 WARN org.apache.zookeeper.server.NIOServerCnxn: caught end of stream exception

  11. EndOfStreamException: Unable to read additional data from client sessionid 0x15ed091ee098981, likely client has closed socket

  12.     at org.apache.zookeeper.server.NIOServerCnxn.doIO(NIOServerCnxn.java:231)

  13.     at org.apache.zookeeper.server.NIOServerCnxnFactory.run(NIOServerCnxnFactory.java:208)

  14.     at java.lang.Thread.run(Thread.java:745)

  15. 2017-10-24 03:25:26,093 INFO org.apache.zookeeper.server.NIOServerCnxn: Closed socket connection for client /192.168.100.40:47304 which had sessionid 0x15ed091ee098981

  16. 2017-10-24 03:25:26,093 WARN org.apache.zookeeper.server.NIOServerCnxn: caught end of stream exception


五.解决方法:
undefinedmaxClientCnxns调大到1000,重启zookeeper服务生效配置即可。
spark怎么读取hbase表

关于“spark怎么读取hbase表”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“spark怎么读取hbase表”知识都有一定的了解,大家如果还想学习更多知识,欢迎关注编程网精选频道。

--结束END--

本文标题: spark怎么读取hbase表

本文链接: https://www.lsjlt.com/news/232214.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • spark怎么读取hbase表
    这篇文章主要介绍了spark怎么读取hbase表的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇spark怎么读取hbase表文章都会有所收获,下面我们一起来看看吧。一.场景:     spa...
    99+
    2023-06-03
  • 怎么用Spark读取HBASE数据
    这篇文章主要讲解了“怎么用Spark读取HBASE数据”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Spark读取HBASE数据”吧! ...
    99+
    2024-04-02
  • spark读取hbase的数据实例代码
    这篇文章主要介绍“spark读取hbase的数据实例代码”,在日常操作中,相信很多人在spark读取hbase的数据实例代码问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”spark读取hbase的数据实例代码...
    99+
    2023-06-02
  • Spark怎么写HBASE
    这篇文章将为大家详细讲解有关Spark怎么写HBASE,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。package com.iesol.high_frequencyimport java.io.Buffe...
    99+
    2023-06-03
  • spark与hbase怎么用
    小编给大家分享一下spark与hbase怎么用,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!package hgs.spark.hbaseimport org.apache.spark.SparkCon...
    99+
    2023-06-02
  • 怎么从hbase读取数据导入mongodb
    要将数据从HBase导入MongoDB,可以使用以下步骤:1. 首先,连接到HBase并查询要导出的数据。可以使用Java编程语言或...
    99+
    2023-08-23
    hbase mongodb
  • spark怎么读取mysql数据库数据
    在Spark中读取MySQL数据库数据,可以使用Spark的DataFrame API和JDBC连接器来实现。以下是一种常见的方法:...
    99+
    2024-04-09
    spark mysql
  • HBase的数据读取效率怎么提高
    HBase的数据读取效率可以通过以下几种方式来提高: 列族设计优化:合理设计表的列族结构,将经常一起访问的列放在同一个列族中,减...
    99+
    2024-03-11
    Hbase
  • spark多线程读取文件怎么实现
    在Spark中,可以通过以下步骤来实现多线程读取文件: 创建SparkSession对象: val spark = SparkS...
    99+
    2024-04-02
  • Spark-SQL如何读取JSON文件时反射表头
    小编给大家分享一下Spark-SQL如何读取JSON文件时反射表头,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!Spark-SQL 读取JSON文件时反射表头case class Studen...
    99+
    2023-06-27
  • hbase读取数据的流程是什么
    HBase读取数据的流程如下: 客户端向HBase集群发送读取请求,请求包括表名、行键和列族等信息。 HMaster接收到请求后,...
    99+
    2024-03-05
    hbase
  • python怎么读取列表
    在 python 中读取列表的方法:使用下标(按元素位置访问)使用切片(提取列表的特定部分)迭代(逐个访问元素)使用 list.index() 方法(查找特定元素的索引)使用枚举(返回带...
    99+
    2024-05-14
    python
  • spark读取本地文件的方法是什么
    在Spark中读取本地文件的方法通常使用SparkSession的read方法来实现。以下是一个示例代码: from pyspark...
    99+
    2024-04-02
  • 如何在Spark SQL中读取JSON文件
    如何在Spark SQL中读取JSON文件,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。val path ="/root/temp/people.js...
    99+
    2023-06-02
  • HBase高表与宽表怎么选择
    这篇文章主要讲解了“HBase高表与宽表怎么选择”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“HBase高表与宽表怎么选择”吧!hbase中的宽表是指很多列较少行,即列多行少的表,一行中的数...
    99+
    2023-06-19
  • flink怎么读取oracle全表数据
    在Flink中读取Oracle全表数据可以通过以下步骤实现: 首先,在Flink的代码中引入相关的依赖,例如flink-conne...
    99+
    2024-04-09
    flink oracle
  • hbase怎么查看表region个数
    要查看HBase表的region个数,可以使用HBase shell或HBase web界面来查看。以下是两种方法: 使用HBa...
    99+
    2024-03-05
    hbase
  • hbase怎么修改表中数据
    要修改HBase表中的数据,可以使用以下方法之一: 使用put命令:使用put命令将新的值插入或更新到指定的行和列族中。语法如下...
    99+
    2023-10-28
    hbase
  • spark读取本地文件的方法有哪些
    在Spark中,可以使用以下几种方式来读取本地文件: 使用sc.textFile()方法读取文本文件: from pyspark...
    99+
    2024-04-02
  • 怎么在python中读取列表内容
    这篇文章给大家介绍怎么在python中读取列表内容,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。python可以做什么Python是一种编程语言,内置了许多有效的工具,Python几乎无所不能,该语言通俗易懂、容易入门...
    99+
    2023-06-14
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作