Следите за новостями

Цифра дня

138 тыс. цифровых доверенностей оформлено через «Цифровой нотариат» с момента запуска

    В Intel ускорили тестирование микросхем с помощью Hadoop

    Прогнозная аналитика и Большие Данные обещают корпо­рации экономию в 30 млн долл. в год

    11 марта 2013 14:47, Computerworld.kz
    Рубрики: Мир

    Специалисты Intel разработали систему прогнозной аналитики, способную, по их оценкам, сократить продолжительность тестирования микропроцессоров на 25% и принести экономию корпорации в 30 млн долл. за год.

    Каждый чип, выпускаемый Intel, проходит тщательный контроль качества с использо­ванием сложной серии тестов. В корпора­ции применяют технологии Больших Дан­ных для ускорения принятия решений уже довольно давно, а в прошлом году в Intel внедрили новую платформу, состоящую из Apache Hadoop и программно-аппарат­ного комплекса с хранилищем данных.

    С помощью новой платформы собирается информация в процессе производ­ства и объединяются данные из ряда источников, задействовать которые рань­ше не представлялось возможным. Реализовавшая новшество команда всего из пяти человек в 2012 году сумела сократить стоимость тестирования линейки процессоров Intel Core на 3 млн долл.

    Затем системой были охвачены и другие продукты корпорации. В Intel надеются, что в 2013-2014 году благодаря этому удастся сэкономить еще 30 млн долл. Со­гласно оценкам, аналитическая платформа также позволит сократить продолжи­тельность аттестации готовых процессоров на 25%.

    В поисках новых применений средств обработки Больших Данных ИТ-специали­сты Intel также реализовали набор инструментов бизнес-анализа для различных подразделений корпорации; пользователи работают с этими сервисами самостоятельно.

    «Мы планируем расширять применение прогнозной аналитики в сочетании с из­влечением сведений из Больших Данных, — подчеркнул Крис Шоу, ИТ-директор Intel EMEA. — До недавнего времени анализ выполнялся только постфактум. Дан­ные извлекались, помещались в базу, обрабатывались и затем генерировался ретроспективный отчет. Теперь мы получили возможность выполнять прогноз­ный анализ, установив на линиях тестирования чипов датчики, информация с ко­торых обрабатывается в реальном времени».

    По мнению Шоу, одна из самых больших трудностей для организаций — обработ­ка больших объемов неструктурированных данных, поступающих из множества источников. Объединение этих данных со структурированными и извлечение по­лезных сведений может быть очень сложной задачей, требующей участия специ­алистов по анализу информации.

    «На оборудование и программное обеспечение ложится задача непрерывного форматирования и обработки всего объема данных, чтобы пользователь в конеч­ном итоге мог увидеть осмысленную информацию, а не просто поток цифр», — добавил он.

    Шоу признает, что оценка окупаемости аналитической системы тоже может быть непростой задачей. Но недавнее исследование, проведенное в Массачусет­ском технологическом институте, показало, что компании, в которых решения принимают при помощи аналитических средств, в среднем на 5% более рента­бельны, чем остальные.

    Шоу рекомендует начинать с малого, чтобы доказать обоснованность дальней­ших инвестиций. Сегодня команда, участвующая в проекте по оптимизации про­цесса контроля качества чипов, уже насчитывает 50 участников, поскольку уда­лось доказать высокую окупаемость инициативы.

    В настоящее время Intel совместно с Apache Software Foundation строит гибрид­ную облачную инфраструктуру на основе Hadoop. Разработчики платформы вы­ясняют для себя, как оптимально использовать возможности процессоров Intel, а в корпорации — какие функции необходимы для поддержки Hadoop.

    «Мы хотим извлечь максимум из облачных решений, — продолжил Шоу. — Если нам удастся добиться масштабной экономии благодаря взаимодействию инже­нерной команды с внешним разработчиком и если при этом мы сумеем предло­жить пользователям Hadoop то, на что они рассчитывают, значит, это и есть луч­ший способ добиться высокой окупаемости».