Я имею дело с огромным набором текстовых данных для классификации контента. Я реализовал модель distilbert и токенизатор distilberttokenizer.from_pretrained (). Этот токенизатор занимает невероятно много времени для токенизации моих текстовых данных, примерно 7 минут для всего 14k записей, и это потому, что он работает на моем процессоре.
Есть ли способ заставить токенизатор работать на моем графическом процессоре.