启动Spark时出现类似error虚拟机SAPRK,not found sc,于是按照以下方法修改:
1.查看ifconfig,看ip地址是否和你在/etc/hosts中的ip地址一致,如果不一致,修改/etc/hosts中的ip地址。
2.查看spark-env.sh中配置的SPARK_MASTER_IP是否和ifconfig中的ip地址一致,如果不一致,请修改SPARK_MASTER_IP。
3.重启虚拟机或者重新启动spark
修改后发现仍然没有作用,后来发现一个规律重启后第一次不会报错,后想到是强制关掉spark-shell造成端口占用,导致error,所以退出spark时,一定要使用:quit。