百木园-与人分享,
就是让自己快乐。

2.安装Spark与Python练习

一、安装Spark

1、检查基础环境hadoop,jdk

 

 

 

2、下载spark

(省略,原来已下好)

 

3、解压,文件夹重命名、权限

(省略,原来已下好)

 

4、配置文件

 

 

 

5、环境变量

 

 

 

 

 

 

 

 

 

6、试运行Python代码

试运行spaark

 

 

 

python命令测试

 

 

 

 

二、Python编程练习:英文文本的词频统计

1、准备文本文件

2、读文件

3、预处理:大小写,标点符号,停用词

4、分词

5、统计每个单词出现的次数

6、按词频大小排序

7、结果写文件

 

with open(\"data.txt\", \"r\") as f:
text=f.read()
text = text.lower()
for ch in \'!@#$%^&*(_)-+=\\\\[]}{|;:\\\'\\\"`~,<.>?/\':
text=text.replace(ch,\" \")

words = text.split() # 以空格分割文本
stop_words = [\'so\',\'out\',\'all\',\'for\',\'of\',\'to\',\'on\',\'in\',\'if\',\'by\',\'under\',\'it\',\'at\',\'into\',\'with\',\'about\',\'i\',\'am\',\'are\',\'is\',\'a\',\'the\',\'and\',\'that\',\'before\',\'her\',\'she\',\'my\',\'be\',\'an\',\'from\',\'would\',\'me\',\'got\']

afterwords=[]

for i in range(len(words)):
z=1
for j in range(len(stop_words)):

if words[i]==stop_words[j]:
continue
else:
if z==len(stop_words):
afterwords.append(words[i])
break
z=z+1
continue

counts = {}
for word in afterwords:
counts[word] = counts.get(word,0) + 1
items = list(counts.items())
items.sort(key=lambda x:x[1],reverse=True)
# 输出前10
for i in range(10):
word, count = items[i]
print(\"{0:<10}{1:>5}\".format(word, count)) # 打印前十个元素

 

 


来源:https://www.cnblogs.com/lvhaoxun/p/15973083.html
本站部分图文来源于网络,如有侵权请联系删除。

未经允许不得转载:百木园 » 2.安装Spark与Python练习

相关推荐

  • 暂无文章