Вопросы по теме 'huggingface-transformers'

Пример кода в документации по быстрому запуску Hugging Face Pytorch-Transformers
Я следую краткому руководству здесь . Проблема в том, что они предоставили код для компьютера с графическим процессором, а я запускаю код на компьютере с Ubuntu на базе процессора. Я прокомментировал строки, которые помещают все в CUDA. Код теперь...
575 просмотров

Windows spyder недопустимая синтаксическая ошибка при запуске файла py
Я пытаюсь запустить последний пример из страница . Я клонировал репозиторий в каталоге C:/Users/nn/Desktop/BERT/transformers-master . Я нахожусь на машине с Windows и использую IDE spyder. Почему я получаю ошибку ниже и как я могу ее решить? Как...
550 просмотров

Как использовать библиотеку Hugging Face Transformers в Tensorflow для классификации текста в пользовательских данных?
Я пытаюсь выполнить классификацию двоичного текста для пользовательских данных (которые находятся в формате csv) с использованием различных архитектур трансформаторов, которые предлагает библиотека Hugging Face 'Transformers'. Я использую это...
2351 просмотров

Лучший способ использовать заполнение маски обнимающего лица для более чем 1 маскируемого токена за раз
Я могу использовать конвейер заполнения маски обнимающего лица, чтобы предсказать 1 замаскированный токен в предложении, используя следующее: !pip install -q transformers from __future__ import print_function import ipywidgets as widgets from...
673 просмотров

Классификация текста с помощью BERT - как обрабатывать слова с ошибками
Я не уверен, что это лучшее место, чтобы задать такой вопрос, возможно, CrossValdation будет лучшим местом. Я работаю над проблемой классификации текстовых мультиклассов. Я построил модель на основе концепции BERT, реализованной в PyTorch...
1248 просмотров

Использование конвейера заливки-маски huggingface, чтобы получить более 5 предложений
Приведенное ниже позволяет мне получить 5 предложений для замаскированного токена, но я хотел бы получить 10 предложений - кто-нибудь знает, возможно ли это с обнимающим лицом? !pip install -q transformers from __future__ import print_function...
1567 просмотров

Как можно декодировать выходные последовательности из TFGPT2Model?
Я пытаюсь получить сгенерированный текст из TFGPT2Model в библиотеке Transformers. Я вижу выходной тензор, но не могу его декодировать. Токенизатор несовместим с моделью TF для декодирования? Код: import tensorflow as tf from transformers...
207 просмотров
schedule 29.04.2024

Как я могу продолжить точную настройку с контрольной точки с помощью сценария NER?
Я пытаюсь выполнить этот сценарий , используя run_ner.py , но все, что я пробовал продолжить тонкую настройку с КПП не удалось. Любые идеи? Я запускаю его с помощью Google Colab. Далее содержимое ячейки, которое я запускаю: %cd...
253 просмотров
schedule 29.10.2022

Невозможно импортировать трубопровод от трансформаторов
Я установил pytorch с conda и transformers с pip . Я могу import transformers без проблем, но когда я пытаюсь import pipeline from transformers , я получаю исключение: from transformers import pipeline...
5906 просмотров

Оцените вероятность токена / логиты для данного предложения, не вычисляя все предложение
У меня есть такое предложение: "I like sitting in my new chair and _____ about life" . И у меня есть КОНКРЕТНЫЙ набор токенов, например ["watch", "run", "think", "apple", "light"] Я...
854 просмотров
schedule 22.03.2023

Как получить немедленную вероятность следующего слова с помощью модели GPT2?
Пробовал модель gpt2 с обнимающим лицом. Я видел run_generation.py script , который генерирует последовательность жетонов с подсказкой. Я знаю, что мы можем использовать GPT2 для NLG. В моем случае использования я хочу определить распределение...
1357 просмотров

Python ImportError: из трансформаторов import BertTokenizer, BertConfig
Я пытаюсь выполнить распознавание именованных объектов в Python с помощью BERT и установил трансформаторы v 3.0.2 из huggingface, используя pip install transformers . Затем, когда я пытаюсь запустить этот код: import torch from torch.utils.data...
637 просмотров

HuggingFace Transformers: BertTokenizer меняет персонажей
Я загрузил норвежскую модель BERT с https://github.com/botxo/nordic_bert , и загрузил его с помощью: import transformers as t model_class = t.BertModel tokenizer_class = t.BertTokenizer tokenizer =...
1201 просмотров

Распознавание именованных сущностей с помощью преобразователей Huggingface, отображение на полные сущности
Я просматриваю документацию по конвейеру Huggingface для распознавания именованных сущностей , и мне не ясно, как эти результаты должны использоваться в реальной модели распознавания сущностей. Например, учитывая пример в документации:...
2240 просмотров
schedule 26.03.2024

Как использовать прошлое с HuggingFace Transformers GPT-2?
У меня есть: context = torch.tensor(context, dtype=torch.long, device=self.device) context = context.unsqueeze(0) generated = context with torch.no_grad(): past_outputs = None for i in...
546 просмотров

Как мне бороться с нехваткой памяти CUDA при точной настройке BART
Я пытаюсь точно настроить BART для наборов данных XSum с помощью скрипта точной настройки в Readme, и я продолжаю получать эту ошибку: RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 14.73 GiB total capacity; 13.67 GiB...
696 просмотров
schedule 04.04.2022

Тензор факела и конфликт ввода: объект тензора не может быть вызван
Из-за кода torch.tensor я получаю сообщение об ошибке Tensor object is not callable при добавлении ввода. Кто-нибудь знает, как я могу это исправить? import torch from torch.nn import functional as F from transformers import GPT2Tokenizer,...
303 просмотров

Обнимающее лицо - RuntimeError: обнаружена RuntimeError в реплике 0 на устройстве 0 в Azure Databricks
Как запустить сценарий run_language_modeling.py из обнимающего лица с использованием предварительно обученной модели случая Роберты для точной настройки с использованием моих собственных данных в блоках данных Azure с кластером графического...
1246 просмотров

Загрузите предварительно обученную модель с диска с помощью Huggingface Transformers
Из документации для from_pretrained , насколько я понимаю, у меня нет чтобы каждый раз загружать предварительно обученные векторы, я могу сохранить их и загрузить с диска с помощью этого синтаксиса: - a path to a `directory` containing...
14954 просмотров
schedule 28.08.2023

Локальное открытие сохраненной модели трансформаторов
У меня есть сохраненная модель трансформаторов с использованием BertModel.from_pretrained('test_model') Я обучил эту модель с помощью графических процессоров Google Colab. Затем я хочу открыть его с помощью...
258 просмотров
schedule 09.02.2023