Deep Learning и AI

Машинное обучение (MACHINE LEARNING). Глубинное обучение (DEEP LEARNING). Искусственный интеллект (AI).

Машинное обучение – один из методов искусственного интеллекта, для достижения конечной цели в котором применяется не прямое решение задачи, а «обучение» компьютерных систем на основе решения множества сходных задач. Алгоритмы машинного обучения основаны на средствах математической статистики, теории вероятностей, теории графов, численных методах, задач аппроксимации функций, когда входные данные об объектах могут быть неполными, неточными, нечисловыми, разнородными. Для сложных задач, требующих аналитических вычислений, которые основываются на современных представлениях о возможностях мозга человека, используются нейронные сети, предоставляющие, в том числе, возможность решения в ИТ-системах проблемы эффективного параллелизма.

Современные приложения для машинного обучения требуют значительных вычислительных ресурсов. Такими ресурсами сегодня располагают крупные центры обработки данных, а также большие облачные провайдеры. Но мы предлагаем Вам другое решение – построить собственное ИТ-решение для задач машинного обучения. Преимущество такого шага – это свой комплекс, который вы можете настраивать под свои нужды и распологать его ресурсами в полном объеме и полной уверенностью в сохранности результатов вашей работы. Применение графических или нейро-процессоров в таких решениях является безусловнымю Лидерами компонентов для построения конечного высокопроизводительного комплекса машинного обучения являются компании Intel и Nvidia. Каждый вендор предлагает свою архитектуру, которая имеет различные преимущества для решения задач искусственного интеллекта и машинного обучения и реализуется в центральных и графических процессорах, интегральных схемах специального назначения (ASIC) и программируемых логических матрицах (PLM).

Решения Nvidia

Лидирующим игроком, продукты которого наиболее популярны для решения задач машинного обучения, является сегодня, по большинству оценок, компания Nvidia. Важнейшие компоненты нейронных сетей - графические процессоры, обеспечивающие высокую производительность при выполнении таких операций, как умножение больших матриц, свертка функций и ряд других, где очень важен массовый параллелизм. NVIDIA DGX Например, такими возможностями обладают графические карты Nvidia Tesla T4, разработанные для приложений искусственного интеллекта, которые предназначены для установки в специализированные серверные платформы и используются в вычислительных системах центров обработки данных. GPU (графические процессоры) Nvidia содержат новые тензорные ядра на основе микроархитектуры Turing, обеспечивающие, в том числе, очень высокую производительность при перемножении матриц с пониженной точностью и отличаются низким энергопотреблением, позволяющим устанавливать их без дополнительных источников питания в разъемы PCI Express серверов. А для оптимизации моделей глубинного обучения в Nvidia выпустили обновление TensorRT. Теперь эта платформа глубинного обучения содержит сервер принятия решений, а также контейнеризированный микросервис поддержки процессов логических умозаключений (inference), который, легко интегрируется с инфраструктурой Kubernetes, автоматизирующей развертывание и масштабирование контейнеризированных приложений, а также управление ими.

Высокопроизводительные вычисления GPU стали новой тенденцией в развитии машинного обучения благодаря высокой производительности и энергоёмкости, которые необходимы для эффективной обработки данных. Ведь для обучения глубоких нейронных сетей, являющихся параллельными алгоритмами, вычисления с помощью GPU требуют гораздо меньше времени. Облачные вычисления на базе GPU помогают решать задачи, требовавшие ранее значительных мощностей, долгого времени на исследования и привлечения больших людских ресурсов. Теперь же инфраструктура, на которой базируется графический процессор, стала намного более энергоемкой и не нуждается в больших финансовых затратах.

Решения Intel

Intel располагает сегодня обширным портфелем технологий искусственного интеллекта, поддерживающим предложение комплексных решений — от центров обработки данных до граничных систем и периферийных устройств, например, как продукт Intel Neural Compute Stick. Покупка компании Altera, вывела Intel на лидирующие позиции в области применения FPGA для задач, связанных с логическими умозаключениями, а доступ к технологиям компании Nervana обеспечил высокопроизводительное обучение нейронных сетей, для которого в настоящее время используются главным образом технологии Nvidia. Для задач общего характера и машинного обучения, не связанного с глубокими нейронными сетями, вполне подходят процессоры серии Intel Xeon Processor Scalable, пояснил он. Поддержку же интенсивных вычислений обеспечат готовящиеся к коммерческому анонсу чипы первого поколения Intel Nervana Neural Network Processor (NNP). В портфель продуктов Intel Nervana, предназначенных для решений искусственного интеллекта, входят такие библиотеки, как Intel Python Distribution, Intel Data Analytics Acceleration Library, BigDL, а также платформы Intel Nervana Cloud & Appliance, Nervana DL Studio, Computer Vision SDK и ряд других. Год назад в Intel объявили о создании чипа Loihi, предназначенного для вероятностных вычислений, который имитирует работу мозга. В планах на 2019 год — создание системы из множества чипов, содержащую 100 млрд синапсов.

Предотвращение болезней. Создание "умных" городов. Революция в области анализа данных. Вот всего лишь несколько достижений, которые стали возможны благодаря искусственному интеллекту и в особенности глубокому обучению. До недавнего времени глубокое обучение было всего лишь теорией, пока разработчики по всему миру не начали использовать различные решения для ускорения и обучения ИИ. Сегодня глубокое обучение позволяет компаниям воплощать свои самые амбициозные проекты в реальность.

Решения "Тринити" для машинного обучения и искусственного интелекта поставляются в виде высокопроизводительных рабочих станций, высокопроизводительных серверов, специальных HPC / GPU высокопроизводительных кластеров серверов расположенных внутри RACK-шкафов, а также в виде специализированных устройств предназначенных для работы с нейронными сетями.

Система Orphus