Могут ли люди указать мне ресурсы по лексированию, синтаксическому анализу и токенизированию с помощью Python?
Я немного взламываю проект с открытым исходным кодом (hotwire) и хотел внести несколько изменений. к коду, который лексы , анализирует и размечает введенные команды внутрь. Поскольку это настоящий рабочий код, он довольно сложен и немного труден для работы.
Я раньше не работал над кодом для lex / parse / tokenise, поэтому я подумал, что одним из подходов будет проработка одного или двух руководств по этому аспекту. Я надеюсь узнать достаточно, чтобы ориентироваться в коде, который я действительно хочу изменить. Есть ли там что-нибудь подходящее? (В идеале это можно было бы сделать днем, не покупая и не читая сначала книгу о драконах ...)
Изменить: (7 октября 2008 г.) Ни один из приведенных ниже ответов не дает того, что я хочу. С их помощью я мог бы генерировать синтаксические анализаторы с нуля, но я хочу научиться писать свой собственный базовый синтаксический анализатор с нуля, не используя lex и yacc или аналогичные инструменты. Сделав это, я смогу лучше понять существующий код.
Так может ли кто-нибудь указать мне на учебник, в котором я могу создать базовый парсер с нуля, используя только python?