Как проверить, является ли какое-либо значение NaN в Pandas DataFrame


484

В Python Pandas, как лучше всего проверить, имеет ли DataFrame одно (или несколько) значений NaN?

Я знаю о функции pd.isnan, но это возвращает DataFrame логических значений для каждого элемента. Этот пост прямо здесь не совсем отвечает и на мой вопрос.


Ответы:


578

Ответ jwilner точен . Я искал, чтобы увидеть, есть ли более быстрый вариант, так как по моему опыту суммирование плоских массивов (как ни странно) быстрее, чем подсчет. Этот код кажется быстрее:

df.isnull().values.any()

Например:

In [2]: df = pd.DataFrame(np.random.randn(1000,1000))

In [3]: df[df > 0.9] = pd.np.nan

In [4]: %timeit df.isnull().any().any()
100 loops, best of 3: 14.7 ms per loop

In [5]: %timeit df.isnull().values.sum()
100 loops, best of 3: 2.15 ms per loop

In [6]: %timeit df.isnull().sum().sum()
100 loops, best of 3: 18 ms per loop

In [7]: %timeit df.isnull().values.any()
1000 loops, best of 3: 948 µs per loop

df.isnull().sum().sum()немного медленнее, но, конечно, имеет дополнительную информацию - количество NaNs.


1
Спасибо за отметки времени. Удивительно, что для pandasэтого нет встроенной функции. Это правда из сообщения @ JGreenwell, которое df.describe()может сделать это, но не имеет прямой функции.
hlin117

2
Я просто рассчитал df.describe()(не найдя NaNс). При использовании массива 1000 x 1000 один вызов занимает 1,15 секунды.
hlin117

3
: 1 Кроме того, df.isnull().values.sum()это немного быстрее, чемdf.isnull().values.flatten().sum()
Ноль

Ах, хороший улов @JohnGalt - я поменяю свое решение, чтобы убрать .flatten()постеры. Спасибо.
С Ананд

6
Вы не пытались df.isnull().values.any(), для меня это быстрее, чем другие.
CK1

178

У вас есть несколько вариантов.

import pandas as pd
import numpy as np

df = pd.DataFrame(np.random.randn(10,6))
# Make a few areas have NaN values
df.iloc[1:3,1] = np.nan
df.iloc[5,3] = np.nan
df.iloc[7:9,5] = np.nan

Теперь фрейм данных выглядит примерно так:

          0         1         2         3         4         5
0  0.520113  0.884000  1.260966 -0.236597  0.312972 -0.196281
1 -0.837552       NaN  0.143017  0.862355  0.346550  0.842952
2 -0.452595       NaN -0.420790  0.456215  1.203459  0.527425
3  0.317503 -0.917042  1.780938 -1.584102  0.432745  0.389797
4 -0.722852  1.704820 -0.113821 -1.466458  0.083002  0.011722
5 -0.622851 -0.251935 -1.498837       NaN  1.098323  0.273814
6  0.329585  0.075312 -0.690209 -3.807924  0.489317 -0.841368
7 -1.123433 -1.187496  1.868894 -2.046456 -0.949718       NaN
8  1.133880 -0.110447  0.050385 -1.158387  0.188222       NaN
9 -0.513741  1.196259  0.704537  0.982395 -0.585040 -1.693810
  • Вариант 1 : df.isnull().any().any()- возвращает логическое значение

Вы знаете о том, isnull()что вернуло бы такой фрейм данных:

       0      1      2      3      4      5
0  False  False  False  False  False  False
1  False   True  False  False  False  False
2  False   True  False  False  False  False
3  False  False  False  False  False  False
4  False  False  False  False  False  False
5  False  False  False   True  False  False
6  False  False  False  False  False  False
7  False  False  False  False  False   True
8  False  False  False  False  False   True
9  False  False  False  False  False  False

Если вы сделаете это df.isnull().any(), вы можете найти только столбцы, которые имеют NaNзначения:

0    False
1     True
2    False
3     True
4    False
5     True
dtype: bool

Еще один .any()скажет вам, если что-либо из перечисленногоTrue

> df.isnull().any().any()
True
  • Вариант 2 : df.isnull().sum().sum()- возвращает целое число от общего числа NaNзначений:

Это работает так же, как .any().any()и, сначала давая суммирование количества NaNзначений в столбце, затем суммирование этих значений:

df.isnull().sum()
0    0
1    2
2    0
3    1
4    0
5    2
dtype: int64

Наконец, чтобы получить общее количество значений NaN в DataFrame:

df.isnull().sum().sum()
5

Почему бы не использовать .any(axis=None)вместо .any().any()?
Георгий

57

Чтобы узнать, какие строки имеют NaN в определенном столбце:

nan_rows = df[df['name column'].isnull()]

17
Для того, чтобы выяснить , какие строки не имеет пренебрежимо малого в колонке конкретной: non_nan_rows = df[df['name column'].notnull()].
Elmex80s

49

Если вам нужно узнать, сколько строк с «одним или несколькими NaNс»:

df.isnull().T.any().T.sum()

Или, если вам нужно вытащить эти строки и изучить их:

nan_rows = df[df.isnull().T.any().T]

4
Я думаю, что нам не нужен 2-й T
YOBEN_S


18

Добавляя к Hobs блестящий ответ, я очень плохо знаком с Python и Pandas, поэтому, пожалуйста, укажите, если я не прав.

Чтобы узнать, какие строки имеют NaN:

nan_rows = df[df.isnull().any(1)]

будет выполнять ту же операцию без необходимости транспонирования, указав ось any () как 1, чтобы проверить, присутствует ли в строках 'True'.


Это избавляет от двух переносов! Люблю ваше краткое any(axis=1)упрощение.
вар

12

Супер простой синтаксис: df.isna().any(axis=None)

Начиная с v0.23.2 , вы можете использовать DataFrame.isna+, DataFrame.any(axis=None)где axis=Noneуказывает логическое сокращение по всему DataFrame.

# Setup
df = pd.DataFrame({'A': [1, 2, np.nan], 'B' : [np.nan, 4, 5]})
df
     A    B
0  1.0  NaN
1  2.0  4.0
2  NaN  5.0

df.isna()

       A      B
0  False   True
1  False  False
2   True  False

df.isna().any(axis=None)
# True

Полезные альтернативы

numpy.isnan
Еще один эффективный вариант, если вы используете старые версии панд.

np.isnan(df.values)

array([[False,  True],
       [False, False],
       [ True, False]])

np.isnan(df.values).any()
# True

В качестве альтернативы, проверьте сумму:

np.isnan(df.values).sum()
# 2

np.isnan(df.values).sum() > 0
# True

Series.hasnans
Вы также можете итеративно позвонить Series.hasnans. Например, чтобы проверить, есть ли в одном столбце NaN,

df['A'].hasnans
# True

И чтобы проверить, есть ли в каком-либо столбце NaN, вы можете использовать понимание с помощью any(это операция короткого замыкания).

any(df[c].hasnans for c in df)
# True

Это на самом деле очень быстро.


10

Поскольку никто не упомянул, есть еще одна переменная с именем hasnans.

df[i].hasnansбудет выводить, Trueесли одно или несколько значений в Серии панд NaN, Falseесли нет. Обратите внимание, что это не функция.

версии панд "0.19.2" и "0.20.2"


6
Этот ответ неверен. Серия Pandas имеет этот атрибут, а датафреймы - нет. Если df = DataFrame([1,None], columns=['foo']), то df.hasnansброшу AttributeError, но df.foo.hasnansвернусь True.
Натан Томпсон

7

Поскольку pandasэто нужно выяснить DataFrame.dropna(), я посмотрел, как они это реализуют, и обнаружил, что они использовали DataFrame.count(), что подсчитывает все ненулевые значения в DataFrame. Ср исходный код панд . Я не тестировал эту технику, но думаю, что авторы библиотеки, вероятно, сделали мудрый выбор, как это сделать.


7

позвольте dfбыть именем DataFrame Pandas и любое значение, которое numpy.nanявляется нулевым значением.

  1. Если вы хотите увидеть, какие столбцы имеют нулевые значения, а какие нет (просто True и False)
    df.isnull().any()
  2. Если вы хотите видеть только столбцы, которые имеют нули
    df.loc[:, df.isnull().any()].columns
  3. Если вы хотите увидеть количество нулей в каждом столбце
    df.isna().sum()
  4. Если вы хотите увидеть процент пустых значений в каждом столбце

    df.isna().sum()/(len(df))*100
  5. Если вы хотите видеть процент нулей в столбцах только с нулями: df.loc[:,list(df.loc[:,df.isnull().any()].columns)].isnull().sum()/(len(df))*100

РЕДАКТИРОВАТЬ 1:

Если вы хотите увидеть, где ваши данные визуально отсутствуют:

import missingno
missingdata_df = df.columns[df.isnull().any()].tolist()
missingno.matrix(df[missingdata_df])

Если вы хотите увидеть количество нулей в каждом столбце ... Это кажется безумным, почему бы просто не сделать df.isna().sum()?
AMC

4

Просто используйте math.isnan (x) , верните True, если x - NaN (не число), и False в противном случае.


4
Я не думаю, что math.isnan(x)будет работать, когда xэто DataFrame. Вы получаете TypeError вместо этого.
hlin117

Почему вы используете это по любой из альтернатив?
AMC

4
df.isnull().sum()

Это даст вам счет всех значений NaN, присутствующих в соответствующих столбцах DataFrame.


Нет, это даст вам Серию, которая отображает имена столбцов в соответствии с их количеством значений NA.
AMC

Исправлено, моя вина: р
Адарш сингх

3

Вот еще один интересный способ найти нулевое значение и заменить его вычисленным значением.

    #Creating the DataFrame

    testdf = pd.DataFrame({'Tenure':[1,2,3,4,5],'Monthly':[10,20,30,40,50],'Yearly':[10,40,np.nan,np.nan,250]})
    >>> testdf2
       Monthly  Tenure  Yearly
    0       10       1    10.0
    1       20       2    40.0
    2       30       3     NaN
    3       40       4     NaN
    4       50       5   250.0

    #Identifying the rows with empty columns
    nan_rows = testdf2[testdf2['Yearly'].isnull()]
    >>> nan_rows
       Monthly  Tenure  Yearly
    2       30       3     NaN
    3       40       4     NaN

    #Getting the rows# into a list
    >>> index = list(nan_rows.index)
    >>> index
    [2, 3]

    # Replacing null values with calculated value
    >>> for i in index:
        testdf2['Yearly'][i] = testdf2['Monthly'][i] * testdf2['Tenure'][i]
    >>> testdf2
       Monthly  Tenure  Yearly
    0       10       1    10.0
    1       20       2    40.0
    2       30       3    90.0
    3       40       4   160.0
    4       50       5   250.0

3

Я использую следующее и набираю тип, приводя его к строке и проверяя значение nan

   (str(df.at[index, 'column']) == 'nan')

Это позволяет мне проверять определенное значение в ряду, а не просто возвращать его, если оно содержится где-то в ряду.


Есть ли какое-то преимущество в использовании этого pandas.isna()?
AMC

2

Лучше всего было бы использовать:

df.isna().any().any()

Вот почему . Так isna()используется для определения isnull(), но оба они, конечно, идентичны.

Это даже быстрее, чем принятый ответ и охватывает все двумерные массивы панд.


1

Или вы можете использовать .info()на DFтаких , как:

df.info(null_counts=True) который возвращает количество строк non_null в столбцах, таких как:

<class 'pandas.core.frame.DataFrame'>
Int64Index: 3276314 entries, 0 to 3276313
Data columns (total 10 columns):
n_matches                          3276314 non-null int64
avg_pic_distance                   3276314 non-null float64


0
df.apply(axis=0, func=lambda x : any(pd.isnull(x)))

Проверим для каждого столбца, содержит ли он Nan или нет.


Зачем использовать это над любым из встроенных решений?
AMC

0

Мы можем увидеть значение нуля , присутствующие в наборе данных пути создания Heatmap с помощью Сиборна модуля Heatmap

import pandas as pd
import seaborn as sns
dataset=pd.read_csv('train.csv')
sns.heatmap(dataset.isnull(),cbar=False)

-1

Вы можете не только проверить, существует ли какое-либо «NaN», но также получить процент «NaN» в каждом столбце, используя следующую команду:

df = pd.DataFrame({'col1':[1,2,3,4,5],'col2':[6,np.nan,8,9,10]})  
df  

   col1 col2  
0   1   6.0  
1   2   NaN  
2   3   8.0  
3   4   9.0  
4   5   10.0  


df.isnull().sum()/len(df)  
col1    0.0  
col2    0.2  
dtype: float64

-2

В зависимости от типа данных, с которыми вы имеете дело, вы также можете просто получить значения значений для каждого столбца при выполнении EDA, установив для dropna значение False.

for col in df:
   print df[col].value_counts(dropna=False)

Хорошо работает для категориальных переменных, не так много, когда у вас много уникальных значений.


Я думаю, что это неэффективно. Встроенные функции панд более аккуратны. Предотвращает загромождение ноутбука ipython.
Ку

Нет смысла использовать это над встроенными решениями.
AMC
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.