news 2026/4/23 11:35:45

<span class=“js_title_inner“>Apache Hadoop生态组件部署分享-Impala</span>

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
<span class=“js_title_inner“>Apache Hadoop生态组件部署分享-Impala</span>

节点信息请参考:

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

一、IMPALA编译

1.1 下载impala-4.2.0

下载地址:https://impala.apache.org/downloads.html

1.2 解压并修改相关配置

cd apache-impala-4.2.0修改./bin/impala-config.shexport USE_APACHE_HIVE=${USE_APACHE_HIVE-false} 为 export USE_APACHE_HIVE=${USE_APACHE_HIVE-true}

修改此参数原因: 部署时候impala无法查询数据,因为默认引用的是cloudera产品的依赖,cdp hive中的元数据表字段与apache hive元数据表字段不一致,报错信息为: Operations not supported. Table xxx access type is: NONE

见https://issues.apache.org/jira/browse/IMPALA-10792

1.3 开始编译

编译之前在编译机器安装:

yum install boost boost-devel redhat-lsb python-devel cyrus-sasl-devel cyrus-sasl lzo-devel lzo gcc-c++ gcc cmake maven python pip python-devel

开始编译

[root@wqg apache-impala-4.2.0]# export IMPALA_HOME=`pwd`[root@wqg apache-impala-4.2.0]# bin/bootstrap_system.sh...[root@wqg apache-impala-4.2.0]# $IMPALA_HOME/buildall.sh -noclean -notests

注:中间编译遇到了很多异常后面会统一贴出

说明: 本次编译并没有调整过多版本,大多采用默认版本号,因此兼容性不是最佳,目前还未发现问题

编译参考网址:

impala官方文档:https://cwiki.apache.org/confluence/display/IMPALA/Impala+Home

编译文档: https://cwiki.apache.org/confluence/display/IMPALA/Building+Impala

二、impala安装部署(单节点)

其实多节点也就是在其他节点部署impala daemon 步骤一样的

2.1 打包分发解压

将编译好的文件打包从192.168.242.130 分发至 192.168.242.230

解压后的目录: /opt/apache/apache-impala-4.2.0

mkdir /opt/apache_v00/hadoop-3.3.5/hdfs-sockets#后面配置需要

2.2 配置文件

hdfs-site.xml
在hdfs-site.xml配置文件中新增以下内容,配置完成后将其分发至其他节点以及hive的配置路径下
<!--impala所需配置--><property> <name>dfs.client.read.shortcircuit</name> <value>true</value></property> <property> <name>dfs.domain.socket.path</name> <value>/opt/apache_v00/hadoop-3.3.5/hdfs-sockets/dn</value></property> <property> <name>dfs.client.file-block-storage-locations.timeout.millis</name> <value>10000</value></property> <property> <name>dfs.datanode.hdfs-blocks-metadata.enabled</name> <value>true</value> </property>
hive-site.xml
在hive的conf下编译hive-site.xml新增以下内容然后分发到其他节点
<!--impala所需--><property> <name>hive.metastore.dml.events</name> <value>true</value></property>

重启hadoop、hive相关组件服务

2.3 state_store_flags配置

我的是在/opt/apache_v00/apache-impala-4.2.0/conf,配置文件路径位置可以任意

-state_store_pending_task_count_max=0-max_log_files=10-state_store_port=24000-enable_webserver=true-webserver_port=25010-state_store_num_server_worker_threads=4-log_filename=statestored-minidump=9-hostname=apache230.hadoop.com

2.4 catalogserver_flags配置

-catalog_service_port=26000-max_log_files=10-hms_event_polling_interval_s=2-load_auth_to_local_rules=false-load_catalog_in_background=false-webserver_port=25020-server_name=apache230.hadoop.com-ranger_app_id=impala-authorization_provider=ranger-ranger_service_type=hive-catalog_topic_mode=minimal-log_filename=catalogd-state_store_subscriber_timeout_seconds=30-state_store_host=apache230.hadoop.com-state_store_port=24000

2.5 impalad_flags配置

-server-name=apache230.hadoop.com-ranger_service_type=hive-ranger_app_id=impala-authorization_provider=ranger-state_store_host=apache230.hadoop.com-catalog_service_host=apache230.hadoop.com-catalog_service_port=26000-hostname=apache230.hadoop.com-beeswax_port=21000-fe_port=21000-be_port=22000-use_local_catalog=true

2.6 启动impala相关服务

export IMPALA_HOME=/opt/apache_v00/apache-impala-4.2.0export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:${IMPALA_HOME}/fe/target/impala-frontend-4.2.0-RELEASE.jar:$(echo ${IMPALA_HOME}/fe/target/dependency/*.jar | tr ' ' ':'):${HADOOP_HOME}/etc/hadoop/core-site.xml:${HADOOP_HOME}/etc/hadoop/hdfs-site.xmlexport CLASSPATH=\/root/libthrift-0.16.0.jar:\${HADOOP_HOME}/etc/hadoop:\"$IMPALA_HOME"/fe/src/test/resources:\"$IMPALA_HOME"/fe/target/dependency:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE.jar:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE-tests.jar:$CLASSPATH cd /opt/apache/apache-impala-4.2.0/be/build/debug/servicenohup ./statestored start --flagfile=/etc/impala/conf/state_store_flags > statestored.log 2>&1 &nohup ./catalogd start --flagfile=/etc/impala/conf/catalogserver_flags > catalogd.log 2>&1 &./impalad start --flagfile=/opt/apache_v00/apache-impala-4.2.0/conf/impalad_flags

2.7 连接测试

impala-shell -i apache230.hadoop.com:21000 -d default --protocol=beeswax

impala-shell -i apache230.hadoop.com:21050 -d default (默认走21050端口)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 8:27:25

低成本语音机器人搭建:CosyVoice-300M Lite集成实战

低成本语音机器人搭建&#xff1a;CosyVoice-300M Lite集成实战 1. 为什么你需要一个“能说话”的轻量级语音机器人&#xff1f; 你有没有遇到过这些场景&#xff1a; 想给内部培训视频配个自然的旁白&#xff0c;但专业配音太贵&#xff1b; 想为老年用户设计一个语音播报提…

作者头像 李华
网站建设 2026/4/23 8:28:42

AI智能文档扫描仪容错机制:异常图像输入的处理方式说明

AI智能文档扫描仪容错机制&#xff1a;异常图像输入的处理方式说明 1. 为什么需要容错机制——从真实使用场景说起 你有没有遇到过这样的情况&#xff1a;拍一张发票&#xff0c;结果因为反光太强&#xff0c;边缘检测直接失效&#xff1b;或者在昏暗会议室里拍白板&#xff…

作者头像 李华
网站建设 2026/4/23 9:58:58

RMBG-2.0实战案例:如何快速制作高质量透明背景素材

RMBG-2.0实战案例&#xff1a;如何快速制作高质量透明背景素材 本文不讲源码编译、不配环境变量、不敲命令行——你只需要一台装有显卡的电脑&#xff0c;5分钟内就能开始批量产出专业级透明背景图。这不是模型评测&#xff0c;也不是技术解析&#xff0c;而是一份真正为设计师…

作者头像 李华
网站建设 2026/4/23 9:58:01

BEYOND REALITY Z-Image效果实测:如何生成自然光影人像

BEYOND REALITY Z-Image效果实测&#xff1a;如何生成自然光影人像 1. 为什么这张人像照片让人眼前一亮&#xff1f; 你有没有试过输入“阳光下的女孩”却得到一张脸发灰、阴影生硬、皮肤像塑料的图片&#xff1f;或者反复调整参数&#xff0c;结果不是五官扭曲就是光影混乱&am…

作者头像 李华
网站建设 2026/4/23 7:57:36

DAMO-YOLO效果展示:对抗样本鲁棒性测试(模糊/噪声/遮挡)

DAMO-YOLO效果展示&#xff1a;对抗样本鲁棒性测试&#xff08;模糊/噪声/遮挡&#xff09; 在真实工业场景中&#xff0c;摄像头拍到的画面往往不完美——雨雾会让图像变模糊&#xff0c;低光照会引入噪点&#xff0c;货架遮挡会截断目标轮廓。一个只在干净数据上表现优异的检…

作者头像 李华
网站建设 2026/4/23 8:03:04

RTX 4090极速体验:Qwen2.5-VL视觉任务实战指南

RTX 4090极速体验&#xff1a;Qwen2.5-VL视觉任务实战指南 你是否曾为一张截图里的文字提取反复截图、粘贴、校对&#xff1f;是否在做网页开发时&#xff0c;对着设计图手动敲HTML代码到深夜&#xff1f;是否面对一张复杂图表&#xff0c;想快速理解却找不到人帮忙解读&#…

作者头像 李华