跳转到主要内容

大数据

Sql Server日志清理

分类
故障描述

  某项目局点C盘空间大量被使用,目录为MSSQL\log目录。如何清理。

故障分析

  无

建议/总结

  多次执行

EXEC sp_cycle_errorlog
GO

清除日志。建议六次以上。

建议修改Sql日志转存。

      打开 Sql Server 配置管理器 --> Sql Server 服务 --> Sql Server (MSSQLSERVER) --> 属性 --> 高级

     修改“转储目录”,将文件夹修改为新的路径

     修改“启动参数”,将-e后的文件夹修改为新的路径

     然后从新启动 Sql Server (MSSQLSERVER) ,再次执行方法一得指令,发现 ERRORLOG 文件就在新的文件夹内产生了

Mysql大规模数据库的简单迁移方法

分类
故障描述

  某大数据项目需迁移Mysql数据库。涉及3xxG数据,采用mysqldump+source导入太慢。如何缩短停机时间。

故障分析

  无

处理过程

1、按表导出文件

mysqldump -uroot -p'xxx'  beta beta_file_msg_logs_2023_12  > /backup/db-mir/beta_file_msg_logs_2023_12.sql &
mysqldump -uroot -p'xxx'  beta beta_obs_file_scan_hunter_2023_12  > /backup/db-mir/beta_obs_file_scan_hunter_2023_12.sql &
mysqldump -uroot -xxx'  beta beta_obs_file_scan_zlg_2023_12  > /backup/db-mir/beta_obs_file_scan_zlg_2023_12.sql &
2、多进程导入文件

mysql  -h 127.0.0.1 -P 6446 -uroot -p'xxx'  beta   < /backup/db-mir/beta_file_msg_logs_2023_12.sql &
mysql  -h 127.0.0.1 -P 6446 -uroot -p'xxx'  beta   < /backup/db-mir/beta_obs_file_scan_hunter_2023_12.sql &
mysql  -h 127.0.0.1 -P 6446 -uroot -p'xxx'  beta   < /backup/db-mir/beta_obs_file_scan_zlg_2023_12.sql &

该方法不依赖三方组件,多并发处理可以提高速度。

建议/总结

  无

Hive数据跨HDFS集群迁移

分类
故障描述

  客户存算分离,将Hive数据从本地HDFS迁移到EMC A300 HDFS存储。

故障分析

  无

处理过程

1、前期预迁移hdfs文件:hadoop distcp -pugpt -update -skipcrccheck  -m 24 /user/hive hdfs://A300.corem.local:8020/user/hive

2、停止hive服务,增量迁移hadoop distcp -pugpt -update -skipcrccheck  -m 24 /user/hive hdfs://A300.corem.local:8020/user/hive

3、Mysql导出元数据表:mysqldump -hlocalhost -uhive -p --databases hive > hive_bk.sql

4、替换hive_bk.sql文件中间的路径关键字:sed -i 's/master-1/A300.corem.local/g' hive_bk.sql

5、在Mysql里成导入hive_bk.sql:

mysql -hlocalhost -uhive –p

mysql> source hive_bk.sql

6、启动hive服务,检查状态,通过show database,select等检查表状态。

 

建议/总结

  1.HDFS文件部分,需多次同步更新,最终停止业务后再同步一次即可。

        2.元数据表里保存了表的保存路径。需替换相应数据。确保更新后路径一致。

cdh存算分离hbase迁移后hbase:mate无法rit

分类
故障描述

  存算分离,将hbase迁移到EMC A300。迁移后启动Hbase Master,一直提示无法RIT

hbase:meta,,1.1588230740 state=OFFLINE

故障分析

  无

处理过程

       Hbase中有配置文件。(只有HBase2.x版本需要修改)搜索hbase.wal.provider参数,如果不存在这个字段,需要添加该参数到“hbase-site.xml 的 Hbase 服务高级配置代码段(安全阀)”,参数值为单个 HDFS WAL

然后再重启。原因是wal在新、旧HDFS搜索。文件冲突导致

建议/总结

  无

SmartSense hst agent SSL认证失败

分类
故障描述

INFO 2023-07-17 17:42:17,138 hst-agent.py:400 - Registering HST Agent
INFO 2023-07-17 17:42:17,145 hst-agent.py:401 - HST Version : 1.5.1.2.7.5.0-72
INFO 2023-07-17 17:42:17,146 hst-agent.py:402 - Python Version: 2.7.5
INFO 2023-07-17 17:42:17,146 hst-agent.py:403 - Open SSL Version: OpenSSL 1.0.2k-fips  26 Jan 2017
ERROR 2023-07-17 17:42:17,282 security.py:74 - Two-way SSL authentication failed. [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:618)
ERROR 2023-07-17 17:42:17,554 security.py:74 - Two-way SSL authentication failed. [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:618)
ERROR 2023-07-17 17:42:20,692 security.py:74 - Two-way SSL authentication failed. [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:618)
ERROR 2023-07-17 17:42:30,525 security.py:74 - Two-way SSL authentication failed. [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:618)
ERROR 2023-07-17 17:42:59,282 security.py:74 - Two-way SSL authentication failed. [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:618)
 

故障分析

  无

处理过程

对hst服务进行重置
hst reset //服务器端


hst reset-agent //客户端
hst setup-agent -q //客户端

建议/总结

  无

Hive修改引擎为Spark无法修改参数

分类
故障描述

  hdp 3默认采用tez引擎,根据业务需求,需临时更换为spark引擎。

采用

set hive.execution.engine=spark;

set spark.executor.instances=40;

报错如下

Error while processing statement:Canot modly spark.executor.instances at runtime, t is not in list of params that are alowed to be modifed at runtime

故障分析

  无

处理过程

    hive 3开始,默认进行安全授权,防止运行时修改参数。把hive配置中hive.security.authorization.enabled关闭后再行测试即可。

建议/总结

  无

建立本地bigtop repo

分类
故障描述

  bigtop repo位于国外,大数据节点不具备外网访问权限,如何建立本地repo供安装。

故障分析

  无

处理过程

1.安装centos7或其它版本。

2.安装以下组件:yum install -y wget tar zip unzip yum-utils createrepo httpd

3.下载bigtop repo

cd /ye/etc/yum.repos.d/
wget https://dlcdn.apache.org/bigtop/bigtop-3.2.0/repos/rockylinux-8/bigto
op.repo

4.reposync同步到本地

reposync --gpgcheck -1 --repoid=bigtop --download_path=/var/www/html

5.创建repo

cd /var/www/html/bigtop
createrepo .

6.生成repo文件

cat << EOF > /var/www/html/bigtop/bigtop.repo
[bigtop]
name=bigtop
baseurl=http://master-1/bigtop
enabled=1
gpgcheck=0
EOF

7.在其它节点下载

wget -P /etc/yum.repos.d/ http://master-1/bigtop/bigtop.repo
建议/总结

  无

ambari 2.7.6+hdp 3.1.5安装kafka 3.0.0版本

分类
故障描述

  无

故障分析

  无

处理过程

hdp 3.1.5默认集成kafka2,客户需要安装kafka3

安装如下:

cd /opt
wget http://vpn.coremtech.com:20080/kafka3/kafka_2.12-3.0.0.tgz
wget http://vpn.coremtech.com:20080/kafka3/server.properties
wget http://vpn.coremtech.com:20080/kafka3/start.txt
tar zxvf kafka_2.12-3.0.0.tgz
cp server.properties kafka_2.12-3.0.0/config/
vi kafka_2.12-3.0.0/config/server.properties
# change id
mkdir /data-a/kafka3-logs
/opt/kafka_2.12-3.0.0/bin/kafka-server-start.sh  -daemon /opt/kafka_2.12-3.0.0/config/server.properties

 

建议/总结

  一个zk环境,支持两个不同kafka版本,仅需要zk连接器后加新的命名即可。例如master:2181/kafka3

安装flume

分类
故障描述

  安装flume组件

故障分析

  无

处理过程

cd /opt
wget http://vpn.coremtech.com:20080/apache-flume-1.11.0-bin.tar.gz
tar zxvf apache-flume-1.11.0-bin.tar.gz
mv ./apache-flume-1.11.0-bin ./flume
echo "export FLUME_HOME=/opt/flume" >> /etc/profile
echo "export PATH=\$PATH:\$FLUME_HOME/bin" >> /etc/profile
source /etc/profile
cd /opt/flume/conf
cp flume-env.sh.template flume-env.sh
"change java_home
flume-ng agent --conf /opt/flume/conf/
 

建议/总结

  无

Hbase Version提示org.apache.hadoop.hbase.util.GetJavaProperty

分类
故障描述

  客户安装flume执行flume-ng verion提示org.apache.hadoop.hbase.util.GetJavaProperty。hbase version也提示该错误。

故障分析

  hbase bug,详见:https://reviews.apache.org/r/69299/diff/2/?expand=1

处理过程

进入hbase/bin目录

cp hbase.distro hbase.distro-bak //先备份原有文件

vi hbase.distro

切到182行,在add_to_cp_if_exists “${HBASE_HOME}/hbase-server/target” 这里下面加上两行

        # Needed for GetJavaProperty check below
    add_to_cp_if_exists "${HBASE_HOME}/hbase-server/target/classes"

把下面大概186,187行的

    #add the hbase jars for each module
    for f in $HBASE_HOME/hbase-jars/hbase*.jar; do
        if [[ $f = *sources.jar ]]
      then
        : # Skip sources.jar
      elif [ -f $f ]
      then
        CLASSPATH=${CLASSPATH}:$f;
      fi
    done
这部分注释掉

切到大概310行左右,在

  if [ -n "${HADOOP_IN_PATH}" ] && [ -f "${HADOOP_IN_PATH}" ]; then

下面加上一段:

  # If built hbase, temporarily add hbase-server*.jar to classpath for GetJavaProperty
  # Exclude hbase-server*-tests.jar
  temporary_cp=
  for f in "${HBASE_HOME}"/lib/hbase-server*.jar; do
    if [[ ! "${f}" =~ ^.*\-tests\.jar$ ]]; then
      temporary_cp=":$f"
    fi
  done

然后把

  HADOOP_JAVA_LIBRARY_PATH=$(HADOOP_CLASSPATH="$CLASSPATH" "${HADOOP_IN_PATH}" \ 
改成

  HADOOP_JAVA_LIBRARY_PATH=$(HADOOP_CLASSPATH="$CLASSPATH${temporary_cp}" "${HADOOP_IN_PATH}" \
即可。

详见附件文件

建议/总结

  无