iis服务器助手广告广告
返回顶部
首页 > 资讯 > 精选 >java如何实现对Hadoop进行操作
  • 455
分享到

java如何实现对Hadoop进行操作

2023-06-20 13:06:54 455人浏览 八月长安
摘要

这篇文章主要为大家展示了“java如何实现对hadoop进行操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java如何实现对Hadoop进行操作”这篇文章吧。基本操作import 

这篇文章主要为大家展示了“java如何实现对hadoop进行操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java如何实现对Hadoop进行操作”这篇文章吧。

基本操作

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.*;import org.junit.Test;import org.junit.jupiter.api.BeforeEach;import org.junit.jupiter.api.DisplayName;import org.junit.runner.RunWith;import org.junit.runners.JUnit4;import java.io.IOException;import java.net.URI;import java.net.URISyntaxException;import java.util.Arrays;@RunWith(JUnit4.class)@DisplayName("Test using junit4")public class HadoopClientTest {    private FileSystem fileSystem = null;    @BeforeEach    public void init() throws URISyntaxException, IOException, InterruptedException {        Configuration configuration = new Configuration();        configuration.set("dfs.replication", "1");        configuration.set("dfs.blocksize", "64m");        fileSystem = FileSystem.get(new URI("hdfs://hd-even-01:9000"), configuration, "root");    }        @Test    public void copyFileFromLocal() throws URISyntaxException, IOException, InterruptedException {        // 上传文件        fileSystem.copyFromLocalFile(new Path("C:\\Users\\Administrator\\Desktop\\win10激活.txt"), new Path("/even1"));        // 关闭流,报错winUtils,因为使用了linux的tar包,如果windows要使用,则需要编译好这个winUtils包才能使用        fileSystem.close();    }        @Test    public void copyFileToLocal() throws URISyntaxException, IOException, InterruptedException {        // 下载文件        fileSystem.copyToLocalFile(new Path("/win10激活.txt"), new Path("E:/"));        // 关闭流,报错winUtils,因为使用了linux的tar包,如果windows要使用,则需要编译好这个winUtils包才能使用        fileSystem.close();    }        @Test    public void hdfsMkdir() throws IOException {        // 调用创建文件夹方法        fileSystem.mkdirs(new Path("/even1"));        // 关闭方法        fileSystem.close();    }        public void hdfsRename() throws IOException {        fileSystem.rename(new Path(""), new Path(""));        fileSystem.close();    }        @Test    public void hdfsRm() throws IOException {//        fileSystem.delete(new Path(""));        // 第二个参数表示递归删除        fileSystem.delete(new Path(""), true);        fileSystem.close();    }        @Test    public void hdfsLs() throws IOException {        // 调用方法返回远程迭代器,第二个参数是把目录文件夹内的文件也列出来        RemoteIterator<LocatedFileStatus> listFiles = fileSystem.listFiles(new Path("/"), true);        while (listFiles.hasNext()) {            LocatedFileStatus locatedFileStatus = listFiles.next();            System.out.println("文件路径:" + locatedFileStatus.getPath());            System.out.println("块大小:" + locatedFileStatus.getBlockSize());            System.out.println("文件长度:" + locatedFileStatus.getLen());            System.out.println("副本数量:" + locatedFileStatus.getReplication());            System.out.println("块信息:" + Arrays.toString(locatedFileStatus.getBlockLocations()));        }        fileSystem.close();    }        @Test    public void findHdfs() throws IOException {        // 1,展示状态信息        FileStatus[] listStatus = fileSystem.listStatus(new Path("/"));        // 2,遍历所有文件        for (FileStatus fileStatus : listStatus) {            if (fileStatus.isFile())                System.out.println("是文件:" + fileStatus.getPath().getName());            else if (fileStatus.isDirectory())                System.out.println("是文件夹:" + fileStatus.getPath().getName());        }        fileSystem.close();    }}

文件读写

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDatainputStream;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;import org.apache.hadoop.io.IOUtils;import org.junit.Before;import org.junit.Test;import org.junit.jupiter.api.DisplayName;import org.junit.runner.RunWith;import org.junit.runners.JUnit4;import java.io.*;import java.net.URI;import java.net.URISyntaxException;import java.NIO.charset.StandardCharsets;import java.util.Arrays;@RunWith(JUnit4.class)@DisplayName("this is read write test!")public class HadoopReadWriteTest {    FileSystem fileSystem = null;    Configuration configuration = null;    @Before    public void init() throws URISyntaxException, IOException, InterruptedException {        // 1,加载配置        configuration = new Configuration();        // 2,构建客户端        fileSystem = FileSystem.get(new URI("hdfs://hd-even-01:9000/"), configuration, "root");    }    @Test    public void testReadData() throws IOException {        // 1,获取hdfs文件流        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 2,设置一次获取的大小        byte[] bytes = new byte[1024];        // 3,读取数据        while (open.read(bytes) != -1)            System.out.println(Arrays.toString(bytes));        open.close();        fileSystem.close();    }        @Test    public void testReadData1() throws IOException {        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 使用缓冲流会快点        BufferedReader bufferedReader = new BufferedReader(new InputStreamReader(open, StandardCharsets.UTF_8));        String line = "";        while ((line = bufferedReader.readLine()) != null) {            System.out.println(line);        }        bufferedReader.close();        open.close();        fileSystem.close();    }        @Test    public void readSomeData() throws IOException {        FSDataInputStream open = fileSystem.open(new Path("/win10激活.txt"));        // 指定开始的index        open.seek(14);        // 指定读的多少        byte[] bytes = new byte[5];        while (open.read(bytes) != -1)            System.out.println(new String(bytes));        open.close();        fileSystem.close();    }        @Test    public void writeData() throws IOException {        // 1,获取输出流        FSDataOutputStream out = fileSystem.create(new Path("/win11.txt"), false);        // 2,获取需要写的文件输入流        FileInputStream in = new FileInputStream(new File("C:\\Users\\Administrator\\Desktop\\xixi.txt"));        byte[] b = new byte[1024];        int read = 0;        while ((read = in.read(b)) != -1) {            out.write(b, 0, read);        }        in.close();        out.close();        fileSystem.close();    }        @Test    public void writeData1() throws IOException {        // 1,创建输出流        FSDataOutputStream out = fileSystem.create(new Path("/aibaobao.txt"), false);        // 2,写数据        out.write("wochaoaibaobao".getBytes());        // 3,关闭流        IOUtils.closeStream(out);        fileSystem.close();    }        @Test    public void putToHdfs() throws IOException {        // 1,获取输入流        FileInputStream in = new FileInputStream(new File("C:\\Users\\Administrator\\Desktop\\xixi.txt"));        // 2,获取输出流        FSDataOutputStream out = fileSystem.create(new Path("/haddopPut.txt"), false);        // 3,拷贝        IOUtils.copyBytes(in, out, configuration);        // 4,关闭流        IOUtils.closeStream(in);        IOUtils.closeStream(out);        fileSystem.close();    }        @Test    public void getFromHdfs() throws IOException {        // 1,获取输入流        FSDataInputStream open = fileSystem.open(new Path("/haddopPut.txt"));        // 2,获取输出流        FileOutputStream out = new FileOutputStream(new File("C:\\Users\\Administrator\\Desktop\\haddopPut.txt"));        // 3,拷贝        IOUtils.copyBytes(open, out, configuration);        // 4,关闭流        IOUtils.closeStream(open);        IOUtils.closeStream(out);        fileSystem.close();    }}

以上是“java如何实现对Hadoop进行操作”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网精选频道!

--结束END--

本文标题: java如何实现对Hadoop进行操作

本文链接: https://www.lsjlt.com/news/296787.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • java如何实现对Hadoop进行操作
    这篇文章主要为大家展示了“java如何实现对Hadoop进行操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“java如何实现对Hadoop进行操作”这篇文章吧。基本操作import ...
    99+
    2023-06-20
  • java实现对Hadoop的操作
    基本操作 import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import o...
    99+
    2024-04-02
  • Java如何对文件进行基本操作
    这篇文章给大家分享的是有关Java如何对文件进行基本操作的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。File文件类java.io.File是文件和目录的重要类(JDK6及以前是唯一)目录也使用File类进行表示...
    99+
    2023-06-20
  • Java实现RedisUtils进行增删改操作
    本篇内容介绍了“Java实现RedisUtils进行增删改操作”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!前排提示,我在这个工具类加了@C...
    99+
    2023-06-20
  • Hadoop集群怎么搭建及如何进行Python操作
    这期内容当中小编将会给大家带来有关Hadoop集群怎么搭建及如何进行Python操作,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。最近项目中在做千亿大数据存储检索需求,要把10T的文本数据进行解析处理存入...
    99+
    2023-06-15
  • python中如何对文件进行操作
    这篇文章主要介绍python中如何对文件进行操作,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一.文件基本操作1.1 文件打开和关闭open(‘文件名称','打开模式')模式:r(只读,指针再...
    99+
    2023-06-15
  • Java执行hadoop的基本操作实例代码
    Java执行hadoop的基本操作实例代码向HDFS上传本地文件public static void uploadInputFile(String localFile) throws IOException{ Configuratio...
    99+
    2023-05-31
    java hadoop
  • 使用java怎么对elasticsearch进行操作
    这期内容当中小编将会给大家带来有关使用java怎么对elasticsearch进行操作,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。Java操作es集群步骤1:配置集群对象信息;2:创建客户端;3:查看集...
    99+
    2023-05-30
  • Java/Web如何调用Hadoop进行MapReduce
    这篇文章主要为大家展示了“Java/Web如何调用Hadoop进行MapReduce”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“Java/Web如何调用Hadoop进行MapReduce”这篇...
    99+
    2023-05-30
    java hadoop mapreduce
  • Java中如何使用NumPy函数对容器进行操作?
    NumPy是Python中一个流行的数学库,它提供了许多用于数学运算和科学计算的功能。虽然Java不是一种数学语言,但是Java程序员可以使用NumPy库来处理数学运算和科学计算。在本文中,我们将探讨Java中如何使用NumPy函数对容器...
    99+
    2023-07-03
    numy 函数 容器
  • Linux 中如何使用 Java 对象进行重定向操作?
    在Linux中,Java对象的重定向操作是非常常见的。重定向操作是将输出从一个文件描述符或一个命令重定向到另一个文件描述符或命令的过程。在Java中,我们可以使用System类的setOut方法来重定向输出流。 以下是如何在Linux中使用...
    99+
    2023-10-10
    重定向 linux 对象
  • 如何在Python中对文件进行操作
    目录前言1.open()函数2.读文件3.写文件4.通过 with 来读写文件前言 在Python中,我们可以通过一些内置函数来操作电脑上的文件,并对文件进行读写,这种读写操作是很常...
    99+
    2024-04-02
  • C语言怎么实现对文件进行操作
    这篇“C语言怎么实现对文件进行操作”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“C语言怎么实现对文件进行操作”文章吧。文件指...
    99+
    2023-07-05
  • 使用Hibernate如何实现对数据库进行增删改查操作
    使用Hibernate如何实现对数据库进行增删改查操作?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。Hibernate对数据删除操作删除User表中个一条数据,是需要更具U...
    99+
    2023-05-31
    hibernate 数据库 增删改查
  • 使用Mybatis如何实现对数据库进行增删改查操作
    本篇文章为大家展示了使用Mybatis如何实现对数据库进行增删改查操作,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。什么是 MyBatis?MyBatis 是支持普通 SQL 查询,存储过程和高级映...
    99+
    2023-05-31
    mybatis 增删改查 数据库
  • Windows系统中,如何使用Java进行对象索引操作?
    在Java编程中,对象是程序中非常重要的组成部分。对象的创建和使用是Java程序设计的基础。在Java中,对象可以被视为具有属性和行为的实体。每个对象都有一个唯一的标识符,也就是对象的引用。 对象索引操作是Java编程中非常常见的操作之一...
    99+
    2023-08-08
    索引 对象 windows
  • Java 7中怎么对文件进行操作
    这篇文章将为大家详细讲解有关Java 7中怎么对文件进行操作,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。创建和删除文件下面的代码片段向你展示的是用 Files.createFile(Pat...
    99+
    2023-06-17
  • Linux 系统如何利用 Java 对象进行重定向操作?
    在 Linux 系统中,重定向是一种常用的操作,它可以将命令执行的结果输出到指定的文件或设备中。在 Java 中,也可以利用对象进行重定向操作。本文将介绍 Linux 系统如何利用 Java 对象进行重定向操作。 一、Linux 系统中的...
    99+
    2023-10-10
    重定向 linux 对象
  • 如何进行对Python操作方法的说明
    今天就跟大家聊聊有关如何进行对Python操作方法的说明,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。Mysql是一个优秀的开源数据库,它现在的应用非常的广泛,因此很有必要简单的介绍...
    99+
    2023-06-17
  • 如何对Git分支进行改名字操作
    Git是一款非常流行的版本控制工具,它强大的分支管理功能可以让团队高效地协同开发。在使用Git分支时,有时候我们需要给分支改名字,以便更好地管理和识别。那么,Git分支能否改名字呢?答案是肯定的。接下来,让我们来看一下如何对Git分支进行改...
    99+
    2023-10-22
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作