Публикации по теме 'big-data'


Готовы принять участие в выставке AI Expo 2018: AI, маркетинг, инновации, будущее
Обратный отсчет начался. Завтра официально стартует выставка AI Expo. В четверг ведем трек «ИИ и потребитель»☝️ Все готово к работе. Мы также сделали это в этом году, чтобы организовать потрясающую программу с превосходными спикерами на ваших мероприятиях в течение года. Теперь мы снова участвуем в конференции AI & Big Data Expo , одной из крупнейших конференций, посвященных искусственному интеллекту и большим данным в мире. Чего ожидать? 👉 Завтра и в четверг в Санта-Кларе,..

Инструменты — 3, инструменты, которые думают за нас
Раздел — А — Большие данные и алгоритмы Инструменты, которые думают за нас Раздел — А — Большие данные и алгоритмы В марте 2016 года компьютер под названием Alpha Go сделал еще один большой шаг к тому, чтобы показать, что наши новые инструменты способны решать более сложные задачи. Он обыграл лучшего в мире игрока в ГО в этой древней игре с почти бесконечным числом ходов. Это было сложнее, чем просто прочесывать тонны данных, как это делал Deep Blue, когда обыграл лучшего в мире..

Как решить настоящие проблемы с большими данными - загружайте огромные файлы Excel
Подсказка: многопоточность. Используя PDI и PostgreSQL, мы можем загрузить огромный файл Excel за несколько минут. Все больше и больше компаний начинают осознавать важность данных. Следовательно, они приходят с запросами на загрузку огромных файлов CSV или Excel из своих устаревших систем или ручных процессов в базу данных для аналитики на основе данных. Я знаю, что теперь у нас есть много решений для решения этой проблемы, такие как pandas , dask , vaex библиотеки Python или..

Сила количественных знаний
«Мир — это одна большая проблема данных». Именно так Эндрю Макафи, содиректор Инициативы Массачусетского технологического института по цифровой экономике, видел будущее в 2014 году. подтверждается. За последние несколько лет технологии больших данных проникли во все формы бизнеса, и результаты носят революционный характер. Хотя термин большие данные на самом деле был придуман Джоном Маши в середине 1990-х годов — далекое прошлое с точки зрения технологий — только совсем недавно стал..

5V больших данных: объем, скорость, разнообразие, виртуализация и VMware Pt. 2
Вторая часть моих статей о преимуществах виртуализации рабочих нагрузок больших данных с помощью технологий VMware. Часть 2 продолжает аргументы Части 1 в пользу рассмотрения больших данных в VMware и дает заключение о том, подходят ли вам большие данные в VMware. Отказ от ответственности : VMware не платила мне и не просила опубликовать эту статью, и все мысли и мнения являются моими собственными. Я предоставил VMware ранний доступ к написанному, чтобы убедиться, что я не..

Что такое коэффициент инфляции дисперсии (VIF)
Коэффициент инфляции дисперсии (VIF) используется для обнаружения мультиколлинеарности. Коэффициенты инфляции дисперсии (VIF) измеряют, насколько раздувается дисперсия оцененных коэффициентов регрессии по сравнению с тем случаем, когда переменные-предикторы не связаны линейно. Он получается путем регрессии каждой независимой переменной, скажем X, по оставшимся независимым переменным (скажем, Y и Z) и проверки того, какая часть (из X) объясняется этими переменными. Следовательно, Из..

Насколько велики большие данные?
Мы навсегда вошли в эпоху данных. Все, что мы делаем онлайн и даже офлайн, оставляет след в данных - от файлов cookie до наших профилей в социальных сетях. Так сколько же данных на самом деле? Сколько данных мы обрабатываем ежедневно? Добро пожаловать в эру Zettabyte. 1. Эра Зеттабайт Данные измеряются в битах и ​​байтах. Один бит содержит значение 0 или 1. Восемь битов составляют байт. Затем у нас есть килобайты (1000 байтов), мегабайты (1000² байтов), гигабайты (1000³ байтов),..