Как изменить имена столбцов данных в pyspark?


201

Я пришел из пандского фона и привык читать данные из CSV-файлов в информационном кадре, а затем просто менять имена столбцов на что-то полезное с помощью простой команды:

df.columns = new_column_name_list

Однако то же самое не работает в фреймах данных pyspark, созданных с использованием sqlContext. Единственное решение, которое я мог найти, чтобы сделать это легко, заключается в следующем:

df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', inferschema='true', delimiter='\t').load("data.txt")
oldSchema = df.schema
for i,k in enumerate(oldSchema.fields):
  k.name = new_column_name_list[i]
df = sqlContext.read.format("com.databricks.spark.csv").options(header='false', delimiter='\t').load("data.txt", schema=oldSchema)

Это в основном определяет переменную дважды и сначала выводит схему, затем переименовывает имена столбцов, а затем снова загружает фрейм данных с обновленной схемой.

Есть ли лучший и более эффективный способ сделать это, как мы делаем в пандах?

Моя искровая версия 1.5.0

Ответы:


334

Есть много способов сделать это:

  • Вариант 1. Использование selectExpr .

    data = sqlContext.createDataFrame([("Alberto", 2), ("Dakota", 2)], 
                                      ["Name", "askdaosdka"])
    data.show()
    data.printSchema()
    
    # Output
    #+-------+----------+
    #|   Name|askdaosdka|
    #+-------+----------+
    #|Alberto|         2|
    #| Dakota|         2|
    #+-------+----------+
    
    #root
    # |-- Name: string (nullable = true)
    # |-- askdaosdka: long (nullable = true)
    
    df = data.selectExpr("Name as name", "askdaosdka as age")
    df.show()
    df.printSchema()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
    
    #root
    # |-- name: string (nullable = true)
    # |-- age: long (nullable = true)
  • Вариант 2. Используя withColumnRenamed , обратите внимание, что этот метод позволяет вам «перезаписать» один и тот же столбец. Для Python3 замените xrangeна range.

    from functools import reduce
    
    oldColumns = data.schema.names
    newColumns = ["name", "age"]
    
    df = reduce(lambda data, idx: data.withColumnRenamed(oldColumns[idx], newColumns[idx]), xrange(len(oldColumns)), data)
    df.printSchema()
    df.show()
  • Вариант 3. Используя псевдоним , в Scala вы также можете использовать как .

    from pyspark.sql.functions import col
    
    data = data.select(col("Name").alias("name"), col("askdaosdka").alias("age"))
    data.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+
  • Вариант 4. Использование sqlContext.sql , который позволяет использовать SQL-запросы для DataFramesзарегистрированных в качестве таблиц.

    sqlContext.registerDataFrameAsTable(data, "myTable")
    df2 = sqlContext.sql("SELECT Name AS name, askdaosdka as age from myTable")
    
    df2.show()
    
    # Output
    #+-------+---+
    #|   name|age|
    #+-------+---+
    #|Alberto|  2|
    #| Dakota|  2|
    #+-------+---+

1
Я сделал это с forпетлей + withColumnRenamed, но ваш reduceвариант очень хорош :)
Фелипе Джерард

1
Ну, поскольку в Spark ничего не делается до тех пор, пока в DF не вызывается какое-либо действие, это просто менее элегантный код ... В конце концов, полученный DF точно такой же!
Фелипе Джерард

2
@FelipeGerard Пожалуйста, проверьте этот пост , плохие вещи могут случиться, если у вас много столбцов.
Альберто Бонсанто

1
@AlbertoBonsanto Как выбрать столбец в качестве псевдонима, если существует более 100 столбцов, что является наилучшим вариантом

3
@NuValue, вы должны сначала запуститьfrom functools import reduce
joaofbsm

171
df = df.withColumnRenamed("colName", "newColName")\
       .withColumnRenamed("colName2", "newColName2")

Преимущество использования этого способа: с длинным списком столбцов вы хотели бы изменить только несколько имен столбцов. Это может быть очень удобно в этих сценариях. Очень полезно при объединении таблиц с повторяющимися именами столбцов.


Есть ли вариант этого решения, который оставляет все остальные столбцы без изменений? с этим и другими методами остались только явно названные столбцы (все остальные удалены)
Кецалькоатль

1
+1 у меня все работало нормально, просто отредактировал указанный столбец, оставив остальные без изменений, и столбцы не были удалены.
mnis.p

2
@Quetzalcoatl Эта команда, по-видимому, изменяет только указанный столбец при сохранении всех остальных столбцов. Следовательно, отличная команда для переименования только одного из потенциально многих имен столбцов
user989762

@ user989762: согласен; мое первоначальное понимание было неверным на этом ...!
Кецалькоатль

62

Если вы хотите изменить имена всех столбцов, попробуйте df.toDF(*cols)


5
это решение является наиболее близким к df.columns = new_column_name_list для OP, как по тому, насколько оно сжато, так и по исполнению.
Кецалькоатль

Я думаю, что это должно быть выбрано как лучший ответ
HanaKaze

Для меня я получал названия заголовков из df = df.toDF(*my_pandas_df.columns)
фрейма данных

Этот ответ смущает меня. Не должно ли быть сопоставление старых имен столбцов с новыми именами? Работает ли это, имея colsновые имена столбцов и просто предполагая порядок имен в colsсоответствии с порядком столбцов в кадре данных?
rbatt

47

В случае, если вы хотите применить простое преобразование ко всем именам столбцов, этот код делает свое дело: (я заменяю все пробелы подчеркиванием)

new_column_name_list= list(map(lambda x: x.replace(" ", "_"), df.columns))

df = df.toDF(*new_column_name_list)

Спасибо @ user8117731 за toDfтрюк.


14

Если вы хотите переименовать один столбец и оставить все как есть:

from pyspark.sql.functions import col
new_df = old_df.select(*[col(s).alias(new_name) if s == column_to_change else s for s in old_df.columns])

14

df.withColumnRenamed('age', 'age2')


1
Ответ Панкай Кумара и ответ Альберто Bonsanto в (которые с 2016 и 2015, соответственно) уже предлагают использовать withColumnRenamed.
Эндрю Майерс

Спасибо, да, но есть пара различных синтаксисов, может быть, мы должны собрать их в более формальный ответ? data.withColumnRenamed (oldColumns [idx], newColumns [idx]) против data.withColumnRenamed (columnname, new columnname) я думаю, что это зависит от того, какую версию pyspark вы используете
Sahan Jayasumana

1
Это не другой синтаксис. Разница лишь в том, что вы не сохранили имена столбцов в массиве.
Эд Бордин

13

это подход, который я использовал:

создать сеанс pyspark:

import pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder.appName('changeColNames').getOrCreate()

создать фрейм данных:

df = spark.createDataFrame(data = [('Bob', 5.62,'juice'),  ('Sue',0.85,'milk')], schema = ["Name", "Amount","Item"])

просмотреть df с именами столбцов:

df.show()
+----+------+-----+
|Name|Amount| Item|
+----+------+-----+
| Bob|  5.62|juice|
| Sue|  0.85| milk|
+----+------+-----+

создать список с новыми именами столбцов:

newcolnames = ['NameNew','AmountNew','ItemNew']

измените имена столбцов df:

for c,n in zip(df.columns,newcolnames):
    df=df.withColumnRenamed(c,n)

просмотреть df с новыми именами столбцов:

df.show()
+-------+---------+-------+
|NameNew|AmountNew|ItemNew|
+-------+---------+-------+
|    Bob|     5.62|  juice|
|    Sue|     0.85|   milk|
+-------+---------+-------+

9

Я сделал простую в использовании функцию для переименования нескольких столбцов для фрейма данных pyspark, на случай, если кто-то захочет использовать его:

def renameCols(df, old_columns, new_columns):
    for old_col,new_col in zip(old_columns,new_columns):
        df = df.withColumnRenamed(old_col,new_col)
    return df

old_columns = ['old_name1','old_name2']
new_columns = ['new_name1', 'new_name2']
df_renamed = renameCols(df, old_columns, new_columns)

Будьте осторожны, оба списка должны быть одинаковой длины.


1
Хорошая работа на этом. Немного излишеств за то, что мне было нужно. И вы можете просто передать DF, потому old_columnsчто будет так же, как df.columns.
Дарт Эгрегиус

7

Другой способ переименовать только один столбец (используя import pyspark.sql.functions as F):

df = df.select( '*', F.col('count').alias('new_count') ).drop('count')

3

Я использую это:

from pyspark.sql.functions import col
df.select(['vin',col('timeStamp').alias('Date')]).show()

2
Хотя этот фрагмент кода может решить вопрос, в том числе объяснение действительно помогает улучшить качество вашего сообщения. Помните, что вы отвечаете на вопрос читателей в будущем, и эти люди могут не знать причин, по которым вы предлагаете код.
Исма

1

Вы можете использовать следующую функцию, чтобы переименовать все столбцы вашего фрейма данных.

def df_col_rename(X, to_rename, replace_with):
    """
    :param X: spark dataframe
    :param to_rename: list of original names
    :param replace_with: list of new names
    :return: dataframe with updated names
    """
    import pyspark.sql.functions as F
    mapping = dict(zip(to_rename, replace_with))
    X = X.select([F.col(c).alias(mapping.get(c, c)) for c in to_rename])
    return X

Если вам нужно обновить только имена нескольких столбцов, вы можете использовать то же имя столбца в списке replace_with

Переименовать все столбцы

df_col_rename(X,['a', 'b', 'c'], ['x', 'y', 'z'])

Переименовать несколько столбцов

df_col_rename(X,['a', 'b', 'c'], ['a', 'y', 'z'])

0

Для переименования одного столбца вы все равно можете использовать toDF (). Например,

df1.selectExpr("SALARY*2").toDF("REVISED_SALARY").show()

0

Мы можем использовать различные подходы, чтобы переименовать имя столбца.

Сначала давайте создадим простой DataFrame.

df = spark.createDataFrame([("x", 1), ("y", 2)], 
                                  ["col_1", "col_2"])

Теперь давайте попробуем переименовать col_1 в col_3. PFB несколько подходов, чтобы сделать то же самое.

# Approach - 1 : using withColumnRenamed function.
df.withColumnRenamed("col_1", "col_3").show()

# Approach - 2 : using alias function.
df.select(df["col_1"].alias("col3"), "col_2").show()

# Approach - 3 : using selectExpr function.
df.selectExpr("col_1 as col_3", "col_2").show()

# Rename all columns
# Approach - 4 : using toDF function. Here you need to pass the list of all columns present in DataFrame.
df.toDF("col_3", "col_2").show()

Вот вывод.

+-----+-----+
|col_3|col_2|
+-----+-----+
|    x|    1|
|    y|    2|
+-----+-----+

Надеюсь, это поможет.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.