Важность "большого массива данных"

Почти 90% имеющейся сейчас в сети информации было сгенерировано за последние два года. Количество данных в мире растет очень быстро. По результатам исследований, объем информации в интернете в 2010 году уже перевалил отметку 1 зеттабайт - 2 в 70-й степени байт (зетта- 10 в 21-й степени), в 2011 подобрался к 2 ЗБ, 2012 - 2.8 ЗБ, а прогноз на 2020-й - 40 ЗБ. 
 
Это свидетельствует о появлении нового тренда - «Больших Данных» (Big Data). Он связан с несколькими другими тенденциями, которые делают его возможным и усиливают. В частности - с переходом на «облачные» технологии, увеличением вычислительных мощностей клиентов (то есть машин, которыми пользуются конечные пользователи). Мощности современных серийных компьютеров, а также различных мобильных устройств постоянно растут, и они могут генерировать и обрабатывать все большие массивы информации. 
 
Поэтому роль облачных вычислений неуклонно растет, особенно в управлении "большими данными". Вместе с этим растет и необходимость в защите важных данных. Все выше требования к уровню безопасности облачных хранилищ и серверов, позволяющих работать и иметь доступ к необходимой информации удаленно и круглосуточно и с высокой степенью защиты. Все это повышает эффективность бизнеса, подробнее на smoff.ru
Количество данных, в том числе потенциально полезных, будет становиться все больше. И накапливающихся внутри компаний, и тех, которыми организации обмениваются между собой, и тех, что в открытом доступе. Это самые тексты, видео- и аудиоматериалы, карты GPS, результаты медицинских исследований, статистика с транспортной сферы и т.д. в бесконечных вариациях. Мы сами способствуем этому процессу каждый раз, когда загружаем в соцсети новое видео, снятое на мобильный телефон, пишем комментарий или просто ставим «лайк». Но тем самым мы постоянно увеличиваем количество взаимосвязей в этом сплетении данных, то есть увеличиваем его сложность.
 
Сложность информационного поля вокруг нас растет бешеными темпами. А мы не совсем еще готовы к этому. Потому информация сама по себе, без правильного понимания ее структуры, назначения и возможного контекста применения, - это просто шум. Поэтому нам еще нужно создавать новую логику работы с «большими данными», нужно осваивать новые методики мышления. Они должно стать более направленными на генерирование принципиально новых, неожиданных и отчасти контринтуитивных идей, которые могут оказаться выигрышными в контексте новой сложности.
 
Для компаний различных направлений этот тренд открывает массу возможностей. Стремительно растет количество стартапов, которые предлагают решения для работы с «большими данными». Эти решения могут стать основой для создания новой ценности в различных отраслях. По прогнозам экспертов, ощутимым это будет в медицинской сфере. Очень много данных (анализов, лабораторных исследований и т. д.) уже оцифровано - и это позволяет разрабатывать принципиально новые программы, которые будут группировать данные, отслеживать тенденции и находить связи между факторами, которые раньше считались связанными. То есть возникнут (и уже возникают) принципиально новые сервисы. Вопрос их монетизации еще открыт.
Источник: 
Shagir.ru