@DSM имеет правильный ответ IMO, но я хотел бы поделиться своим обобщением и оптимизацией вопроса: несколько столбцов для группировки и столбцы с несколькими значениями:
df = pd.DataFrame(
{
'category': ['X', 'X', 'X', 'X', 'X', 'X', 'Y', 'Y', 'Y'],
'name': ['A','A', 'B','B','B','B', 'C','C','C'],
'other_value': [10, np.nan, np.nan, 20, 30, 10, 30, np.nan, 30],
'value': [1, np.nan, np.nan, 2, 3, 1, 3, np.nan, 3],
}
)
... дает ...
category name other_value value
0 X A 10.0 1.0
1 X A NaN NaN
2 X B NaN NaN
3 X B 20.0 2.0
4 X B 30.0 3.0
5 X B 10.0 1.0
6 Y C 30.0 3.0
7 Y C NaN NaN
8 Y C 30.0 3.0
В этом обобщенном случае мы хотели бы сгруппировать по category
и name
, а вменять только по value
.
Это можно решить следующим образом:
df['value'] = df.groupby(['category', 'name'])['value']\
.transform(lambda x: x.fillna(x.mean()))
Обратите внимание на список столбцов в предложении group-by, и что мы выбираем value
столбец сразу после group-by. Это заставляет преобразование запускаться только в этом конкретном столбце. Вы можете добавить его в конец, но затем вы запустите его для всех столбцов, чтобы выбросить все столбцы, кроме одного, в конце. Стандартный планировщик запросов SQL мог бы оптимизировать это, но pandas (0.19.2), похоже, этого не делает.
Тест производительности путем увеличения набора данных, выполнив ...
big_df = None
for _ in range(10000):
if big_df is None:
big_df = df.copy()
else:
big_df = pd.concat([big_df, df])
df = big_df
... подтверждает, что это увеличивает скорость пропорционально тому, сколько столбцов вам не нужно вменять:
import pandas as pd
from datetime import datetime
def generate_data():
...
t = datetime.now()
df = generate_data()
df['value'] = df.groupby(['category', 'name'])['value']\
.transform(lambda x: x.fillna(x.mean()))
print(datetime.now()-t)
t = datetime.now()
df = generate_data()
df["value"] = df.groupby(['category', 'name'])\
.transform(lambda x: x.fillna(x.mean()))['value']
print(datetime.now()-t)
В заключение вы можете обобщить еще больше, если хотите вменять более одного столбца, но не все:
df[['value', 'other_value']] = df.groupby(['category', 'name'])['value', 'other_value']\
.transform(lambda x: x.fillna(x.mean()))
groupby
разделе. Слишком много вещей, которые нужно запомнить, но вы выбираете такие правила, как «преобразование выполняется для групповых операций, которые вы хотите индексировать, как исходный фрейм» и так далее.