Python之pyspark:pyspark的简介、安装、使用方法之详细攻略

举报
一个处女座的程序猿 发表于 2021/03/28 01:25:22 2021/03/28
【摘要】 Python之pyspark:pyspark的简介、安装、使用方法之详细攻略       目录 pyspark的简介 pyspark的安装 pyspark的使用方法         pyspark的简介         Spark是一个用于...

Python之pyspark:pyspark的简介、安装、使用方法之详细攻略

 

 

 

目录

pyspark的简介

pyspark的安装

pyspark的使用方法


 

 

 

 

pyspark的简介

        Spark是一个用于大规模数据处理的统一分析引擎。它提供Scala、Java、Python和R中的高级api,以及一个优化的引擎,该引擎支持用于数据分析的通用计算图。它还支持一组丰富的高级工具,包括用于SQL和DataFrames的Spark SQL、用于机器学习的MLlib、用于图形处理的GraphX和用于流处理的结构化流。
        Python Packaging,这个自述文件只包含与PySpark安装的pip相关的基本信息。这个打包目前还处于试验阶段,在未来的版本中可能会有变化(尽管我们会尽力保持兼容性)。使用PySpark需要Spark jar,如果您是从源代码构建它,请参阅“构建Spark”中的构建器说明。
        Spark的Python打包并不打算取代所有其他用例。这个Python打包版本的Spark适合与现有集群交互(无论是Spark independent、YARN还是Mesos)—但是不包含设置自己的独立Spark集群所需的工具。您可以从Apache Spark下载页面下载完整版本的Spark。
        注意:如果您在Spark独立集群中使用它,您必须确保版本(包括次要版本)匹配,否则您可能会遇到奇怪的错误。
官网:https://spark.apache.org/


pyspark的安装

pip install pyspark

 

pyspark的使用方法


  
  1. from pyspark import SparkContext, SparkConf
  2. from pyspark.sql.session import SparkSession
  3. conf = SparkConf().setAppName('test_parquet')
  4. sc = SparkContext('local', 'test', conf=conf)
  5. spark = SparkSession(sc)
  6. # parquetFile = r"hdfs://host:port/Felix_test/test_data.parquet"
  7. parquetFile = r"data.gz.parquet"
  8. df = spark.read.parquet(parquetFile)
  9. print(df.first())

 

 

 

 

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/80213998

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。