博客
关于我
封装一个简单的HBaseUtil
阅读量:781 次
发布时间:2019-03-23

本文共 2704 字,大约阅读时间需要 9 分钟。

HBase 作为一种面向列族的数据库,与普通数据库存在显著差异,无法直接使用JDBC封装的工具,因此该项目重新封装了专门的 HBase 工具进行使用。本文将详细介绍 HBase 的使用方法。

Maven 依赖

在项目中使用 HBase 时,需要通过 Maven 加入相关依赖。记得根据项目需求更换版本号,可以从以下地址获取:

示例依赖项:

org.apache.hbase
hbase-server
1.4.5
org.apache.hbase
hbase-client
1.4.5

私有属性

在使用 HBase 时,需要声明一些私有属性用于配置和连接管理:

private Configuration hbaseConf;private Connection hbaseConn;private HBaseAdmin admin;

构造方法

构造方法用于初始化连接和管理相关配置。具体实现如下:

public HBaseUtil() {    hbaseConf = HBaseConfiguration.create();    try {        hbaseConn = ConnectionFactory.createConnection();        admin = (HBaseAdmin) hbaseConn.getAdmin();        System.out.println("连接是否已建立:" + !hbaseConn.isClosed());    } catch (IOException e) {        e.printStackTrace();    }}

表格操作

判断是否存在表格

可以通过以下方法检查表格是否存在:

public boolean isExist(String tableNameStr) {    TableName tableName = TableName.valueOf(tableNameStr);    boolean flag = false;    try {        flag = admin.tableExists(tableName);    } catch (IOException e) {        e.printStackTrace();    }    return flag;}

创建表格

创建表格时需要先检查其是否存在,如存在则跳过,否则继续操作:

public void createTable(String tableNameStr, String[] familys) {    if (this.isExist(tableNameStr)) {        System.out.println("表格已存在");        return;    }    TableName tableName = TableName.valueOf(tableNameStr);    HTableDescriptor table = new HTableDescriptor(tableName);    for (String familyStr : familys) {        HColumnDescriptor family = new HColumnDescriptor(familyStr);        table.addFamily(family);    }    try {        admin.createTable(table);    } catch (IOException e) {        e.printStackTrace();    }}

删除表格

删除表格需要先禁用,再删除:

public void dropTable(String tableName) {    try {        admin.disableTable(tableName);        admin.deleteTable(tableName);    } catch (MasterNotRunningException e) {        e.printStackTrace();    } catch (ZooKeeperConnectionException e) {        e.printStackTrace();    } catch (IOException e) {        e.printStackTrace();    }}

数据操作

一条数据的写入

实现单条数据的写入功能:

public void putData(String tableNameStr, Put put) {    TableName tableName = TableName.valueOf(tableNameStr);    Table table;    try {        table = hbaseConn.getTable(tableName);        table.put(put);    } catch (IOException e) {        e.printStackTrace();    }}

多条数据的批量写入

支持批量写入操作:

public void putData(String tableNameStr, List
putList) { TableName tableName = TableName.valueOf(tableNameStr); Table table; try { table = hbaseConn.getTable(tableName); table.put(putList); } catch (IOException e) { e.printStackTrace(); }}

通过以上方法,可以对 HBase 表格进行基本的管理和数据操作。这些方法适合在实际项目中进行定制化开发。

转载地址:http://rejzk.baihongyu.com/

你可能感兴趣的文章
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_处理器介绍_处理过程说明---大数据之Nifi工作笔记0019
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_实际操作---大数据之Nifi工作笔记0020
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_实际操作_02---大数据之Nifi工作笔记0032
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控功能实际操作_Summary查看系统和处理器运行情况_viewDataProvenance查看_---大数据之Nifi工作笔记0026
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_使用NIFI表达式语言_来获取自定义属性中的数据_NIFI表达式使用体验---大数据之Nifi工作笔记0024
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>