Я хочу получить несколько веб-страниц и дополнительные ссылки на те из них, которые защищены паролем. У меня есть имя пользователя и пароль, и я могу получить к ним доступ из обычного пользовательского интерфейса браузера. Но поскольку я хочу сохранить эти страницы на свой локальный диск для дальнейшего использования, я использую WGET для их получения:
wget --http-user=USER --http-password=PASS http://mywiki.mydomain.com/myproject
Но вышеописанное не работает, так как снова запрашивает пароль. Есть ли лучший способ сделать это, не зацикливаясь на том, чтобы система снова запрашивала пароль. Кроме того, как лучше всего получить все ссылки и подссылки на определенной странице и сохранить их в одной папке.
Обновление: фактическая страница, к которой я пытаюсь получить доступ, находится за шлюзом HTTPS, и сертификат для нее не проверяется. Есть ли способ пройти через это?
mysystem-dsktp ~ $ wget --http-user=USER --http-password=PASS https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
--2010-01-24 18:09:21-- https://secure.site.mydomain.com/login?url=http://mywiki.mydomain.com%2fsite%2fmyproject%2f
Resolving secure.site.mydomain.com... 124.123.23.12, 124.123.23.267, 124.123.102.191, ...
Connecting to secure.site.mydomain.com|124.123.23.12|:443... connected.
ERROR: cannot verify secure.site.mydomain.com's certificate, issued by `/C=US/O=Equifax/OU=Equifax Secure Certificate Authority':
Unable to locally verify the issuer's authority.
To connect to secure.site.mydomain.com insecurely, use `--no-check-certificate'.
Unable to establish SSL connection.
Я также попробовал параметр --no-check-certificate, он не работает. Я получаю только страницу входа с этой опцией, а не фактическую страницу, которую я запросил.