Я пытаюсь реализовать пример двоичной классификации, используя набор данных IMDb в Google Colab . Я уже реализовал эту модель раньше. Но когда я попытался сделать это снова через несколько дней, он вернул ошибку значения: «Массивы объектов не могут быть загружены, когда allow_pickle = False» для функции load_data ().
Я уже пробовал решить эту проблему, ссылаясь на существующий ответ для аналогичной проблемы: Как исправить «Массивы объектов не могут быть загружены, когда allow_pickle = False» в алгоритме sketch_rnn. Но оказалось, что простого добавления аргумента allow_pickle недостаточно.
Мой код:
from keras.datasets import imdb
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
Ошибка:
ValueError Traceback (most recent call last)
<ipython-input-1-2ab3902db485> in <module>()
1 from keras.datasets import imdb
----> 2 (train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
2 frames
/usr/local/lib/python3.6/dist-packages/keras/datasets/imdb.py in load_data(path, num_words, skip_top, maxlen, seed, start_char, oov_char, index_from, **kwargs)
57 file_hash='599dadb1135973df5b59232a0e9a887c')
58 with np.load(path) as f:
---> 59 x_train, labels_train = f['x_train'], f['y_train']
60 x_test, labels_test = f['x_test'], f['y_test']
61
/usr/local/lib/python3.6/dist-packages/numpy/lib/npyio.py in __getitem__(self, key)
260 return format.read_array(bytes,
261 allow_pickle=self.allow_pickle,
--> 262 pickle_kwargs=self.pickle_kwargs)
263 else:
264 return self.zip.read(key)
/usr/local/lib/python3.6/dist-packages/numpy/lib/format.py in read_array(fp, allow_pickle, pickle_kwargs)
690 # The array contained Python objects. We need to unpickle the data.
691 if not allow_pickle:
--> 692 raise ValueError("Object arrays cannot be loaded when "
693 "allow_pickle=False")
694 if pickle_kwargs is None:
ValueError: Object arrays cannot be loaded when allow_pickle=False
np.load(path)
, теперь по np.load(path, boolean)
умолчанию логическое значение (allow_pickle) равно false
np.savez
документы, но там не было упоминания о мариновании, поэтому я понятия не имею, как он вообще знал, что вещи, которые я сохранял, были материалом Pytorch, а не только numpy ... странно! Если вы знаете, что происходит, поделитесь с нами :)