Проблема «NULL» и «NA» при очистке веб-сайтов с помощью ContentScraper в R?

У меня есть очень длинный список веб-сайтов, которые я хотел бы просмотреть на предмет title, description и keywords.

Я использую ContentScraper из пакета Rcrawler, и я знаю, что он работает, но есть определенные URL-адреса, которые он не может сделать, и просто генерирует сообщение об ошибке ниже. В любом случае, он может пропустить этот конкретный URL-адрес вместо остановки всего выполнения?

Error: 'NULL' does not exist in current working directory

Я просмотрел это , но я не думаю, что на него есть ответ. Вот код, который я использую. Любые советы высоко ценится.

Web_Info <- ContentScraper(Url = Websites_List, 
               XpathPatterns = c('/html/head/title', '//meta[@name="description"]/@content', '//meta[@name="keywords"]/@content'), 
               PatternsName = c("Title", "Description", "Keywords"), 
               asDataFrame = TRUE)

person cheklapkok    schedule 28.03.2019    source источник
comment
проверьте это: stackoverflow.com/questions/12193779 /how-to-write-trycatch-in-r   -  person Cettt    schedule 29.03.2019
comment
Именно то, что мне было нужно. Спасибо. @Сетт   -  person cheklapkok    schedule 29.03.2019