У меня есть огромный файл рассола размером около 6 ГБ, созданный для учебных образцов RainForestClassifer с использованием joblib.dump(). Каждое выполнение должно загружать объекты pickle с помощью joblib.load() для обработки входных данных. Время загрузки очень велико и впоследствии влияет на производительность выполнения скрипта.
Есть ли способ, которым однажды загруженный объект может быть сохранен в памяти и сделать его доступным для последующих исполнений python без вызова joblib.load().
Поможет ли использование БД, такой как sqlite, быстрее загружать данные?
pickle
наjoblib
). Дайте мне знать, если это работает для вас. - person Tejas Shah   schedule 19.01.2017