Публикации по теме 'big-data'
Готовы принять участие в выставке AI Expo 2018: AI, маркетинг, инновации, будущее
Обратный отсчет начался. Завтра официально стартует выставка AI Expo. В четверг ведем трек «ИИ и потребитель»☝️
Все готово к работе.
Мы также сделали это в этом году, чтобы организовать потрясающую программу с превосходными спикерами на ваших мероприятиях в течение года. Теперь мы снова участвуем в конференции AI & Big Data Expo , одной из крупнейших конференций, посвященных искусственному интеллекту и большим данным в мире.
Чего ожидать?
👉 Завтра и в четверг в Санта-Кларе,..
Инструменты — 3, инструменты, которые думают за нас
Раздел — А — Большие данные и алгоритмы
Инструменты, которые думают за нас
Раздел — А — Большие данные и алгоритмы
В марте 2016 года компьютер под названием Alpha Go сделал еще один большой шаг к тому, чтобы показать, что наши новые инструменты способны решать более сложные задачи. Он обыграл лучшего в мире игрока в ГО в этой древней игре с почти бесконечным числом ходов. Это было сложнее, чем просто прочесывать тонны данных, как это делал Deep Blue, когда обыграл лучшего в мире..
Как решить настоящие проблемы с большими данными - загружайте огромные файлы Excel
Подсказка: многопоточность. Используя PDI и PostgreSQL, мы можем загрузить огромный файл Excel за несколько минут.
Все больше и больше компаний начинают осознавать важность данных. Следовательно, они приходят с запросами на загрузку огромных файлов CSV или Excel из своих устаревших систем или ручных процессов в базу данных для аналитики на основе данных. Я знаю, что теперь у нас есть много решений для решения этой проблемы, такие как pandas , dask , vaex библиотеки Python или..
Сила количественных знаний
«Мир — это одна большая проблема данных».
Именно так Эндрю Макафи, содиректор Инициативы Массачусетского технологического института по цифровой экономике, видел будущее в 2014 году. подтверждается. За последние несколько лет технологии больших данных проникли во все формы бизнеса, и результаты носят революционный характер. Хотя термин большие данные на самом деле был придуман Джоном Маши в середине 1990-х годов — далекое прошлое с точки зрения технологий — только совсем недавно стал..
5V больших данных: объем, скорость, разнообразие, виртуализация и VMware Pt. 2
Вторая часть моих статей о преимуществах виртуализации рабочих нагрузок больших данных с помощью технологий VMware. Часть 2 продолжает аргументы Части 1 в пользу рассмотрения больших данных в VMware и дает заключение о том, подходят ли вам большие данные в VMware.
Отказ от ответственности : VMware не платила мне и не просила опубликовать эту статью, и все мысли и мнения являются моими собственными. Я предоставил VMware ранний доступ к написанному, чтобы убедиться, что я не..
Что такое коэффициент инфляции дисперсии (VIF)
Коэффициент инфляции дисперсии (VIF) используется для обнаружения мультиколлинеарности. Коэффициенты инфляции дисперсии (VIF) измеряют, насколько раздувается дисперсия оцененных коэффициентов регрессии по сравнению с тем случаем, когда переменные-предикторы не связаны линейно.
Он получается путем регрессии каждой независимой переменной, скажем X, по оставшимся независимым переменным (скажем, Y и Z) и проверки того, какая часть (из X) объясняется этими переменными.
Следовательно,
Из..
Насколько велики большие данные?
Мы навсегда вошли в эпоху данных. Все, что мы делаем онлайн и даже офлайн, оставляет след в данных - от файлов cookie до наших профилей в социальных сетях. Так сколько же данных на самом деле? Сколько данных мы обрабатываем ежедневно? Добро пожаловать в эру Zettabyte.
1. Эра Зеттабайт
Данные измеряются в битах и байтах. Один бит содержит значение 0 или 1. Восемь битов составляют байт. Затем у нас есть килобайты (1000 байтов), мегабайты (1000² байтов), гигабайты (1000³ байтов),..