BeautifulSoup Prettify не соответствует символу авторского права

Я получаю сообщение об ошибке Юникода: UnicodeEncodeError: 'charmap' codec can't encode character u'\xa9' in position 822: character maps to <undefined>

Похоже, это стандартный символ авторского права, а в HTML — ©. Я не смог найти способ пройти мимо этого. Я даже попробовал пользовательскую функцию заменить копию пробелом, но это также не удалось с той же ошибкой.

import sys
import pprint
import mechanize
import cookielib
from bs4 import BeautifulSoup
import html2text
import lxml

def MakePretty():

def ChangeCopy(S):
    return S.replace(chr(169)," ")
br = mechanize.Browser()

# Cookie Jar
cj = cookielib.LWPCookieJar()
br.set_cookiejar(cj)

# Browser options
br.set_handle_equiv(True)
#br.set_handle_gzip(True)
br.set_handle_redirect(True)
br.set_handle_referer(True)
br.set_handle_robots(False)

# Follows refresh 0 but not hangs on refresh > 0
br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)

# User-Agent (this is cheating, ok?)
br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')]

# The site we will navigate into, handling its session
# Open the site
br.open('http://www.thesitewizard.com/faqs/copyright-symbol.shtml')
html = br.response().read()
soup = BeautifulSoup(html)
print soup.prettify()

if __name__ == '__main__':
    MakePretty()

Как мне получить prettify после символа авторского права? Я искал решение по всему Интернету безрезультатно (или я мог не понять, поскольку я довольно новичок в Python и очистке).

Спасибо за вашу помощь.


person user1521411    schedule 12.07.2012    source источник
comment
Какая кодировка используется на странице?   -  person JAB    schedule 12.07.2012
comment
Вероятно, вызвано неправильными настройками консоли/окружения. См.: stackoverflow.com/a/35453687/1554386   -  person Alastair McCormack    schedule 19.03.2018


Ответы (4)


У меня такая же проблема. Это может сработать для вас:

print soup.prettify().encode('UTF-8')

person kmote    schedule 23.11.2012
comment
@sliders_alpha: Я полагаю, это потому, что (в случае OP) BeautifuSoup неправильно угадал кодировку страницы. См. wiki.python.org/moin/UnicodeEncodeError. - person kmote; 09.09.2015
comment
Была такая же проблема с корейской страницей. Интересно, почему красивый суп по умолчанию не использует utf8... Кодировка страницы тоже определена как utf8... - person Shautieh; 02.03.2017
comment
Спустя 5 лет это решение меня тоже оттолкнуло. :) - person Juan Jimenez; 02.10.2017
comment
без кодирования ('UTF-8') у меня сработало .. бухает, дорогой - person vinrav; 14.11.2018

Страница http://www.thesitewizard.com/faqs/copyright-symbol.shtml отправляется без указания кодировки символов. Сама страница указывает кодировку ISO-8859-1 в теге meta, но только после появления символа «©». Таким образом, клиенты должны сделать предположение, и предположение может быть неправильным. Если клиент угадывает UTF-8, то он увидит бит A9, который является ошибкой данных в данных UTF-8.

Таким образом, кажется, что вам нужно установить кодировку (на ISO-8859-1 или, что более безопасно, на windows-1252) при чтении данных. Это, конечно, только специальное решение; нет смысла править кодировку вообще.

person Jukka K. Korpela    schedule 12.07.2012
comment
Да, мы говорим о «©»; Я исправил это в своем ответе. - person Jukka K. Korpela; 19.03.2018

Вы используете chr(), что здесь неверно, потому что он ожидает ASCII, и это работает только до 127/0x7F (несмотря на популярный фольклор, ASCII только 7-битный). 0xA9 / © — это Unicode, поэтому вместо него следует использовать unichr(169).

person dda    schedule 12.07.2012

Простое изменение на unichr в функции форматирования не сработало. В итоге использовал decode(formatter=blah), который возвращал неформатированный html без символа авторского права. Сохранил этот html и загрузил его в prettify, что и помогло.

person user1521411    schedule 13.07.2012