黑马程序员技术交流社区

标题: 【上海校区】spark写 本地文件报错 [打印本页]

作者: 梦缠绕的时候    时间: 2018-12-24 14:59
标题: 【上海校区】spark写 本地文件报错
环境:spark1.6,window10,Hadoop2.6

报错:rdd.saveastextFile(outPath)

原因:

.在spark bin目录下没有winutils.exe问价
本地dill问价有损坏
c/windows/system32中没有hadoop.dll文件
解决:查看文件夹,没有文件去下载并放到文件夹下;如果有文件尝试修复本地环境,下载DirectX Repair然后解压找到DirectX Repair.exe直接修复,重启后写出回复正常。


---------------------
作者:向阳飞行
来源:CSDN
原文:https://blog.csdn.net/bigdataprimary/article/details/84956439
版权声明:本文为博主原创文章,转载请附上博文链接!


作者: 不二晨    时间: 2018-12-26 09:58





欢迎光临 黑马程序员技术交流社区 (http://bbs.itheima.com/) 黑马程序员IT技术论坛 X3.2