黑马程序员技术交流社区
标题:
【上海校区】spark写 本地文件报错
[打印本页]
作者:
梦缠绕的时候
时间:
2018-12-24 14:59
标题:
【上海校区】spark写 本地文件报错
环境:spark1.6,window10,Hadoop2.6
报错:rdd.saveastextFile(outPath)
原因:
.在spark bin目录下没有winutils.exe问价
本地dill问价有损坏
c/windows/system32中没有hadoop.dll文件
解决:查看文件夹,没有文件去下载并放到文件夹下;如果有文件尝试修复本地环境,下载DirectX Repair然后解压找到DirectX Repair.exe直接修复,重启后写出回复正常。
---------------------
作者:向阳飞行
来源:CSDN
原文:
https://blog.csdn.net/bigdataprimary/article/details/84956439
版权声明:本文为博主原创文章,转载请附上博文链接!
作者:
不二晨
时间:
2018-12-26 09:58
欢迎光临 黑马程序员技术交流社区 (http://bbs.itheima.com/)
黑马程序员IT技术论坛 X3.2