技术博客 技术博客
  • JAVA
  • 仓颉
  • 设计模式
  • 人工智能
  • Spring
  • Mybatis
  • Maven
  • Git
  • Kafka
  • RabbitMQ
  • RocketMQ
  • Redis
  • Zookeeper
  • Nginx
  • 数据库套件
  • MySQL
  • Elasticsearch
  • MongoDB
  • Hadoop
  • ClickHouse
  • Hbase
  • Hive
  • Flink
  • Flume
  • SQLite
  • linux
  • Docker
  • Jenkins
  • Kubernetes
  • 工具
  • 前端
  • AI
GitHub (opens new window)
  • JAVA
  • 仓颉
  • 设计模式
  • 人工智能
  • Spring
  • Mybatis
  • Maven
  • Git
  • Kafka
  • RabbitMQ
  • RocketMQ
  • Redis
  • Zookeeper
  • Nginx
  • 数据库套件
  • MySQL
  • Elasticsearch
  • MongoDB
  • Hadoop
  • ClickHouse
  • Hbase
  • Hive
  • Flink
  • Flume
  • SQLite
  • linux
  • Docker
  • Jenkins
  • Kubernetes
  • 工具
  • 前端
  • AI
GitHub (opens new window)
  • mysql

    • MySQL 问题汇总
    • MySQL 索引介绍
    • MySQL 锁介绍
    • MySQL 索引优化工具 explain
    • MySQL 主从复制(GTID)
    • MySQL 8安装
    • MySQL 8.x新特性总结
    • MySQL UDF以及新类型JSON
    • MySQL 高可用MGR(一) 理论
    • MySQL 高可用MGR(二) 搭建
    • MySQL 高可用MGR(三) 测试
  • Elasticsearch

    • ES 7.8.0(一) 入门介绍
    • ES 7.8.0(二) 读、写和写索引流程以及文档分析过程
    • ES 7.8.0(三) 文档冲突
  • mongodb

    • mongodb
  • hadoop

    • Hadoop 伪分布式及集群
    • Hadoop 指令
    • Hadoop 读写流程详解
    • Hadoop SpringBoot集成
    • Hadoop MapReduce机制
    • Hadoop YARN
    • Hadoop MapReduce配置和编写job及数据倾斜的解决
    • Hadoop MapReduce自定义格式输入输出
  • clickhouse

    • ClickHouse 介绍及安装
    • ClickHouse 数据类型
    • ClickHouse 表引擎
    • ClickHouse SQL操作
    • ClickHouse 副本配置
    • ClickHouse 分片与集群部署
    • ClickHouse Explain及建表优化
    • ClickHouse 语法优化规则
    • ClickHouse 查询优化
    • ClickHouse 数据一致性
    • ClickHouse 物化视图
    • ClickHouse MaterializeMySQL引擎
    • ClickHouse 监控及备份
  • hbase

    • Hbase 介绍及安装
    • Hbase 优化
    • Hbase phoenix安装及使用
      • 安装
      • 命令
    • Hbase LSM-TREE
  • hive

    • Hive 介绍及安装
    • Hive 内外部表、分区表、分桶表概念及hiveSQL命令
    • Hive 数据类型
    • Hive 函数 MySQL联合
    • Hive 数据倾斜和优化
    • Hive Sqoop安装及指令
  • flink

    • Flink 介绍及安装
    • Flink 配置介绍及Demo
    • Flink API讲解
    • Flink 运行架构
    • Flink 时间语义及Watermark
    • Flink 状态管理
    • Flink 容错,检查点,保存点
    • Flink 状态一致性
    • Flink Table API 和 Flink SQL
    • Flink CEP编程
    • Flink Joining编程
    • Flink CDC
  • flume

    • Flume 日志收集系统介绍及安装
    • Flume Source支持的类型
    • Flume Sink支持的类型
    • Flume Channel支持的类型
    • Flume Selector
    • Flume Interceptor拦截器类型
    • Flume Process
  • sqlite

    • SQLite介绍
目录

Hbase phoenix安装及使用

本文及后续所有文章都以 2.4.2 做为版本讲解和入门学习

# 安装

http://phoenix.apache.org/download.html 下载的时候需要去官方网站先查看对应版本,以免下载的无法使用。

wget https://mirrors.bfsu.edu.cn/apache/phoenix/phoenix-5.1.0/phoenix-hbase-2.4-5.1.0-bin.tar.gz
1

将解压候的 phoenix 的 phoenix-client-hbase-2.4-5.1.0.jar phoenix-pherf-5.1.0.jar phoenix-server-hbase-2.4-5.1.0.jar 拷贝到 hbase/lib 目录下

cp phoenix-client-hbase-2.4-5.1.0.jar /opt/software/hbase-2.4.2/lib/
cp phoenix-server-hbase-2.4-5.1.0.jar /opt/software/hbase-2.4.2/lib/
1
2

接下来需要把 Hbase 添加到环境目录中,建议下载的所有软件都配置一下,包括 phoenix,然后启动 Hbase。

# phoenix/bin 目录下执行 会找 zookeeper
./sqlline.py node113:2181
1
2

如果在启动 hbase 出现如下警告

WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform… using builtin-java classes where applicable

可以通过设置 JAVA_LIBRARY_PATH 变量来解决

export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
1

启动 phoenix/bin

./sqlline.py node113:2181
1

# 命令

查看所有表

! tables
1

建表,phoenix 建表必须声明主键,否则报错;phoenix 表名在 hbase 里的表名是大写的,此外列名也是大写的,小写可以加 双引号 包住;没有声明列族,则默认就一个列族,且列族名字为 0;在列族 0 中,除主键外,其余的列都属于 0 列族里的列;主键推荐用 varchar,否则 Hbase 会乱码;

create table table_name(id integer priary key,name varchar);
1

插入数据,字符串要用单引号,双引号报错;Hbase 行键就是 ID;被双引号括住的表名,表数据增加时,表依然要用双引号括住。

upsert into table_name values(1,'hello')
1

查询数据

select * from table_name
1

删除数据

delete from table_name where id = 1;
1

删除表

drop table table_name;
1

自定义列族

create table table_name(id integer priary key,info.name varchar,info.age integer );
upsert into table_name values(1,'tom',23)
1
2
上次更新: 6/11/2025, 4:10:30 PM
Hbase 优化
Hbase LSM-TREE

← Hbase 优化 Hbase LSM-TREE→

Theme by Vdoing | Copyright © 2023-2025
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式