处理目录的常用命令
- 处理目录的常用命令
- rm (移除文件或目录)
- mv (移动文件与目录,或修改名称)
- 启动zookeeper等组件脚本
- 启动spark和Hadoop脚本
- 启动Jupyter、pyspark脚本
- 启动kylin脚本
处理目录的常用命令
ls: 列出目录及文件名cd:切换目录pwd:显示目前的目录mkdir:创建一个新的目录rmdir:删除一个空的目录cp: 复制文件或目录rm: 移除文件或目录mv: 移动文件与目录,或修改文件与目录的名称
-a :全部的文件,连同隐藏文件( 开头为 . 的文件) 一起列出来(常用)-d :仅列出目录本身,而不是列出目录内的文件数据(常用)-l :长数据串列出,包含文件的属性与权限等等数据;(常用)# 如:所有文件列出来(含属性与隐藏档)ls -al ~
rm (移除文件或目录)
# 语法:rm [-fir] # 文件或目录# 选项与参数:# -f :就是 force 的意思,忽略不存在的文件,不会出现警告信息;# -i :互动模式,在删除前会询问使用者是否动作# -r :递归删除啊!最常用在目录的删除了!这是非常危险的选项!!!
mv (移动文件与目录,或修改名称)
# 语法:mv [-fiu] source destinationmv [options] source1 source2 source3 .... directory# 选项与参数:# -f :force 强制的意思,如果目标文件已经存在,不会询问而直接覆盖;# -i :若目标文件 (destination) 已经存在时,就会询问是否覆盖!# -u :若目标文件已经存在,且 source 比较新,才会升级 (update)
启动zookeeper等组件脚本
# 启动zookeeperzkServer.sh stopzkServer.sh start# 启动Hadoopstop-all.shstart-all.sh# 启动Sparkcd ~/software/spark2.4/sbin./stop-all.sh./start-all.sh# 启动HBasestop-hbase.shstart-hbase.sh# 启动zeppelinzeppelin-daemon.sh stopzeppelin-daemon.sh start# 启动Kafkacd ~/software/kafka_2.12-2.3.0/bin./kafka-server-stop.sh ../config/server.properties./kafka-server-start.sh ../config/server.properties
启动spark和Hadoop脚本
stop-all.shstart-all.sh # 启动hadoopcd ~/software/spark2.4/sbin # 进入spark/sbin目录./stop-all.sh./start-all.sh # 执行spark启动脚本
启动Jupyter、pyspark脚本
cd ~/ipynbs# 启动JupyterPYSPARK_DRIVER_PYTHON=jupyter PYSPARK_DRIVER_PYTHON_OPTS=\"notebook\" HADOOP_CONF_DIR=/home/hduser/software/hadoop-3.1.1/etc/hadoop pyspark --master yarn --deploy-mode client
启动kylin脚本
nohup hive --service hiveserver2 2>>~/log 1>>/dev/null &nohup hive --service metastore >> ~/abc.log &kylin.sh stopkylin.sh start