百木园-与人分享,
就是让自己快乐。

标签:txt

野生技术

Java-IO流初识

阅读(187)赞(0)

1.File类的使用 java.io.File类: 文件和文件目录路径的抽象表示形式,与平台无关 File 能新建、删除、重命名文件和目录,但 File 不能访问文件内容本身。如果需要访问文件内容本身,则需要使用输入/输出流。 想要在Jav...

安装Spark与Python练习-百木园
野生技术

安装Spark与Python练习

阅读(200)赞(0)

一、安装Spark 检查jdk和spark运行测试    二、Python编程练习:英文文本的词频统计 源代码: import stringdict={}txt=open(\'test.txt\',\'r\',encoding=\"UTF-...

安装Spark与Python练习-百木园
野生技术

安装Spark与Python练习

阅读(191)赞(0)

一、Spark的安装 1、安装结果 2、Spark的环境配置 3、运行 4、测试 二、Python练习 1、代码截图 2、运行结果 3、源码 import string file1 = open(\'C:/Users/Administrat...

2.安装Spark与Python练习-百木园
野生技术

2.安装Spark与Python练习

阅读(170)赞(0)

一、安装Spark 1.检查基础环境hadoop,jdk     2.配置文件 vim /usr/local/spark/conf/spark-env.sh     3.环境配置 gedit ~/.bashrc   4.试运行Python代...

2.安装Spark与Python练习-百木园
野生技术

2.安装Spark与Python练习

阅读(217)赞(0)

一、安装Spark 1、检查基础环境hadoop,jdk 2、下载spark 3、解压,文件夹重命名、权限 4、配置文件  配置spark的classpath $ cd /usr/local/spark $ cp ./conf/spark-...

安装spark和python练习-百木园
野生技术

安装spark和python练习

阅读(182)赞(0)

一、安装并配置Spark 1.首先检查一下java和hadoop的环境 2.下载spark 3.解压spark安装包,对文件夹重命名,复制配置文件 4.对配置文件进行修改 1.对/usr/local/spark/conf/spark-env...

安装Spark与Python练习-百木园
野生技术

安装Spark与Python练习

阅读(193)赞(0)

一、安装Spark 检查基础环境hadoop,jdk 下载spark 解压,文件夹重命名、权限 配置文件 环境变量 试运行Python代码 1.jdk、hadoop环境       2.spark环境               二、Pyt...

安装spark与python-百木园
野生技术

安装spark与python

阅读(208)赞(0)

一、安装Spark 1.检查基础环境 启动hdfs查看进程     查看hadoop和jdk环境          2.下载spark     3.配置环境变量       4.启动spark     5.试运行python代码      ...