您现在的位置是:网站首页> 编程资料编程资料
Spark-shell批量命令执行脚本的方法_linux shell_
2023-05-26
427人已围观
简介 Spark-shell批量命令执行脚本的方法_linux shell_
批量执行spark-shell命令,并指定提交参数
#!/bin/bash source /etc/profile exec $SPARK_HOME/bin/spark-shell --queue tv --name spark-sql-test --executor-cores 8 --executor-memory 8g --num-executors 8 --conf spark.cleaner.ttl=240000 <
以上这篇Spark-shell批量命令执行脚本的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
相关内容
- 使用shell脚本执行hive、sqoop命令的方法_linux shell_
- shell中循环调用hive sql 脚本的方法_linux shell_
- shell传参并将参数传递给sql文件的方法_linux shell_
- hive-shell批量命令执行脚本的实现方法_linux shell_
- Linux下去掉^M的四种方法_linux shell_
- shell在指定目录下批量执行sql脚本的实例_linux shell_
- linux环境下编写shell脚本实现启动停止tomcat服务的方法_linux shell_
- 在linux shell脚本中root切换到普通用户执行脚本或命令的方法_linux shell_
- 在任意目录下使用某个shell脚本的方法_linux shell_
- Linux shell 实现用for循环100次的方法_linux shell_
