Я реализую токенизатор Python для извлечения токенов из текстового файла. Токены относятся к строкам, которые «соответствуют» шаблону (регулярному выражению), который я определил для каждого токена. Я использую функциональность лексера из пакета python для реализации токенизатора. После сканирования текстового файла все найденные токены возвращаются в виде генератора. Для модульного тестирования я хотел бы вставить дополнительные токены в определенные места в «списке возвращенных токенов», чтобы проверить, правильно ли работает токенизатор в такой плохой ситуации.
Как я могу создать «поддельный» объект токена с помощью ply (модуль python ply.lex), который я могу вставить в список токенов.