pyspark 读取csv文件创建DataFrame的两种方法

Katherine ·
更新时间:2024-11-13
· 689 次阅读

方法一:用pandas辅助

from pyspark import SparkContext from pyspark.sql import SQLContext import pandas as pd sc = SparkContext() sqlContext=SQLContext(sc) df=pd.read_csv(r'game-clicks.csv') sdf=sqlc.createDataFrame(df)

方法二:纯spark

from pyspark import SparkContext from pyspark.sql import SQLContext sc = SparkContext() sqlContext = SQLContext(sc) sqlContext.read.format('com.databricks.spark.csv').options(header='true', inferschema='true').load('game-clicks.csv')

以上这篇pyspark 读取csv文件创建DataFrame的两种方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持软件开发网。

您可能感兴趣的文章:python批量读取txt文件为DataFrame的方法读取json格式为DataFrame(可转为.csv)的实例讲解Python写入CSV文件的方法利用Pandas 创建空的DataFrame方法python中pandas.DataFrame的简单操作方法(创建、索引、增添与删除)



csv文件 方法 pyspark dataframe csv

需要 登录 后方可回复, 如果你还没有账号请 注册新账号