Почему существующие процессоры уже не тянут
Современные CPU и GPU сделали возможными все последние достижения ИИ, но они же постепенно становятся тормозом прогресса. Дело в том, что обычные процессоры вынуждены непрерывно гонять огромные объёмы данных между памятью и ядрами, тратя массу энергии на каждую операцию. Например, мощный графический ускоритель для ИИ может потреблять сотни ватт – нередко 300–700 Вт на один чип! А в дата-центрах таких GPU устанавливают тысячами, что приводит к гигантскому расходу электричества и тепловыделению. Отсюда вытекают сложности с охлаждением: топовые видеопроцессоры требуют громоздких систем жидкостного или воздушного охлаждения, и всё это добавляет затраты и сложность.
Кроме того, традиционная архитектура фон Неймана (процессор отдельно, память отдельно) создаёт узкое место. Данные постоянно бегают между памятью и вычислительным блоком, шины перегружены, возникает задержка при каждом обращении к памяти. Чем больше модель нейросети, тем больше она упирается в ограничения по пропускной способности памяти и интерконнектов. В итоге даже на суперкомпьютерах обучение громадных моделей занимает недели, и всё это время залы с серверами жгут мегаватты электричества ради нагрева планеты.
Неудивительно, что прирост качества ИИ начинает замедляться: дальше увеличивать модели становится слишком дорого и энергозатратно. Да и использовать эти нейросети непросто – запустить современный GPT на телефоне или автономном роботе нереально, он банально разрядит батарею за считанные минуты. Получается, что нам нужно принципиально новое решение в аппаратном обеспечении, чтобы двинуть ИИ вперёд. Этим решением и занимаются neuromorphic computing – нейроморфные процессоры.
Архитектура нейроморфных процессоров: в чём отличие и секрет эффективности
Главная идея нейроморфных чипов – заставить кремний работать по принципам мозга. В человеческом мозге вычисления и память неразделимы: информация хранится прямо в соединениях нейронов (синапсах), и там же происходит обработка. Нейроморфные процессоры имитируют этот подход. В них пытаются отказаться от классической фон-Неймановской архитектуры, где данные и код хранятся отдельно и постоянно гоняются туда-сюда. Вместо этого информация распределённо хранится в искусственных нейронах, а обработка происходит там же, рядом, без длительных вызовов в отдельную память.
Обычный CPU выполняет инструкции последовательно, одно за другой, в лучшем случае немного распараллеливая на несколько ядер. Нейроморфный же чип работает массово параллельно, как мозг – одновременно активируются тысячи миниатюрных ядер-«нейронов», каждый со своей локальной памятью. Более того, эти нейроны общаются не непрерывным потоком данных, а дискретными сигналами – импульсами (спайками). В нейроморфных сетях (их ещё называют импульсными нейронными сетями, SNN) нейрон молчит, пока не получит значимых входных сигналов, и лишь по достижении порога выстреливает электрический импульс. Если входа нет – нейрон в состоянии покоя и не тратит энергию впустую.
Такой асинхронный, событийный принцип действия разительно отличается от тактовых CPU/GPU. В обычном процессоре всё работает по глобальному часу — каждый такт щёлкают транзисторы, даже если данных для обработки нет. В мозгоподобном же чипе никакого центрального тактового сигнала нет: миллионы «нейронов» шепчутся импульсами кто с кем хочет и когда хочет. Вычисления происходят только по событию, при поступлении сигнала, – за счёт этого достигается колоссальная энергоэффективность и скорость в реактивных задачах.
Как это выглядит на практике? Приведём знаменитый пример: компания IBM ещё в 2014 году создала экспериментальный чип TrueNorth с архитектурой, вдохновлённой мозгом. В нём 1 миллион искусственных нейронов и 256 миллионов синапсов, распаяны 5,4 миллиарда транзисторов – по масштабам это как приличный современный CPU. Однако этот «электронный мозг» потребляет всего ~70 мВт – для сравнения, у обычных процессоров плотность мощности была в 10 000 раз выше! То есть TrueNorth приближается по эффективности к настоящему мозгу, который, напомним, работает на ~20 Вт питания. Добиться такого IBM смогла как раз благодаря отказу от тактовой схемы – никакого глобального клока, только обмен спайками между цифровыми нейронами. Также все вычисления и память расположены вместе на чипе в виде сети ядер, чтобы не расходовать энергию на долгие поездки к внешней памяти. Итог впечатляет: на крошечном кристалле получился как бы “суперкомпьютер размером с почтовую марку”, как выразился один из разработчиков[1].
Конечно, нейроморфные процессоры пока не настолько универсальны, как привычные CPU/GPU. Зато в своём узком деле – имитации работы нейросетей – они показывают фантастические показатели. Ещё раз подчеркнём главные отличия их архитектуры: распределённая память в каждом нейроне; массовый параллелизм; коммуникация через спайки; вычисления “в памяти” (in-memory computing). Эти принципы позволят делать чипы, которые не перегреются и не сожгут батарею, даже если в них миллионы нейронов работают одновременно.
Применения нейроморфных процессоров: быстрее и экономичнее
Раз нейроморфное «железо» уже существует, возникает вопрос – а что конкретно на нём умеют делать? Оказывается, довольно многое. Например, ещё тот же IBM TrueNorth демонстрировал умение различать объекты на видео в реальном времени – он мог одновременно отслеживать пешеходов, велосипедистов, машины, грузовики на камерах. И всё это при потреблении энергии, как у слухового аппарата! Аппаратная «мозгосеть» справлялась с задачей компьютерного зрения на порядки эффективнее традиционных решений.
В последние годы набирают обороты и другие проекты. Например, исследователи на чипе Intel Loihi обучили систему распознавать запахи – по сути создали электронный «нос», способный запоминать новые ароматы. Другая команда подключила нейроморфный чип к роботизированной руке, оснастив её искусственной кожей, – получилось нечто вроде тактильной нервной системы, мгновенно реагирующей на прикосновения. Также на базе Loihi делали эксперименты с управлением роботами и дронами. Реальное время и низкое энергопотребление делают такие процессоры идеальными для автономных систем. Робот на нейроморфном «мозге» может обрабатывать сенсорные данные и принимать решения практически мгновенно и без связи с облаком, даже в сложной обстановке – хоть на Марсе, хоть на поле боя.
Особенно впечатляют сравнения по энергоэффективности. Обучение гигантской модели вроде GPT-3 на обычных GPU потребляет порядка 1,3 МВт·ч энергии – столько же электричества уходит на питание 120 домов в течение года!. А теперь представьте нейропроцессор, который обучает схожую модель, расходуя в тысячи раз меньше энергии – это не шутка, такие оценки приводят разработчики. Нейроморфные решения рассматривают как «зелёную» альтернативу для тех же задач машинного обучения, только на edge-устройствах – датчиках, камерах, дронах. Вместо огромных серверов, жрущих мегаватты в облаке, можно будет выполнять интеллектуальные вычисления прямо там, где собираются данные, и на минимальной мощности.
Правда, нужно отметить, что Large Language Models (большие языковые модели) вроде GPT пока в изначальном виде не портированы на нейроморфные чипы – их архитектура рассчитана на классические нейронные сети. Однако учёные уже работают над адаптацией LLM под спайковые нейросети. Есть и интересные исследования: в 2023 году появились сообщения, что нейроморфная модель на основе мозговых принципов лучше справляется с некоторыми задачами логического рассуждения, чем ChatGPT. То есть, возможно, будущее прорывы в ИИ будут связаны не только с размерами моделей, но и с новым типом вычислений. В любом случае уже сейчас нейроморфные чипы показывают свою эффективность на множестве практических кейсов: от распознавания образов и звуков до управления роботами и решений оптимизационных задач (типа коммивояжёра, маршрутизации и др.) – и делают это с впечатляюще малым энергопотреблением. Например, новейший чип Akida компании BrainChip в урезанном варианте Akida Pico рассчитан на работу в носимых устройствах и потребляет всего около 1 милливатта![2] (Для сравнения: стандартный мобильный AI-ускоритель в смартфоне потребляет сотни милливатт). Это открывает дорогу к встраиванию ИИ буквально везде – вплоть до датчиков и микрочипов, работающих от крохотной батарейки или от солнечной панельки.
Самые известные нейроморфные чипы: Intel Loihi и другие
Нейроморфные процессоры пока звучат футуристично, но конкретные их образцы уже существуют и активно тестируются. Перечислим нескольких пионеров и лидеров этой гонки.
Intel Loihi. Компания Intel одной из первых вложилась в нейроморфику и представила ещё в 2017 году чип Loihi (Лоихи) – экспериментальный спайковый процессор с ~130 тысячами искусственных нейронов на борту. Он стал платформой для исследовательских проектов по всему миру. А в 2021 Intel выпустила второе поколение – Loihi 2, уже на новом техпроцессе Intel 4 и с количеством нейронов свыше 1 миллиона на кристалле[3]. Новый чип примерно в 10 раз производительнее предшественника и в 15 раз плотнее по числу нейронов, также улучшена энергоэффективность[3]. Loihi 2 поддерживает более сложные модели и даже имеет открытое ПО (фреймворк Lava) для упрощения разработки, что намекает на движение к коммерциализации[4]. Пока что это исследовательский чип, доступный ограниченному кругу партнеров Intel, но его возможности впечатляют. На базе Loihi 2, например, построена нейроморфная система Hala Point в лаборатории Sandia – она объединяет 1152 таких чипа и имитирует работу ~1,15 миллиарда нейронов (примерно как мозг небольшой обезьяны)[5][6].
IBM TrueNorth. Этот чип мы уже упоминали – TrueNorth появился в 2014 как результат проекта IBM по программе DARPA SyNAPSE. На одном кристалле у него 4096 ядер-«нейросинапсов», суммарно 1 миллион нейронов и 256 млн синапсов. Это был цифровой нейроморфный процессор, превосходящий по энергоэффективности любые существовавшие тогда аналоги. TrueNorth послужил мощным доказательством концепции: он показывал, что нетрадиционная архитектура может дать феноменальный выигрыш в энергопотреблении и скорости на задачах вроде компьютерного зрения. IBM создала целую программную экосистему вокруг TrueNorth, однако коммерчески этот чип не запускался – он остался экспериментальным. Тем не менее наработки IBM легли в основу многих последующих проектов, а сама IBM Research продолжает исследования в области нейроморфных и когнитивных чипов (например, прототипы аналоговых нейросинаптических систем с мемристорами и фазовыми переходами, о которых регулярно выходят научные статьи).
BrainChip Akida. В отличие от гигантов, австралийско-американский стартап BrainChip сумел первым довести свой нейроморфный чип до рынка. Их процессор Akida (Аквида) вышел в 2022 году и стал позиционироваться как первый коммерческий нейроморфный ускоритель для встраиваемых систем. Akida выполнен полностью цифровым, содержит на кристалле множество ядер, способных эмулировать спайковые нейросети или выполнять сверточные нейронные сети в энергосберегающем режиме. Отличительная особенность – поддержка обучения на чипе (on-chip learning), то есть он может обучать модели прямо в устройстве без обращения к облаку[7][8]. Первая версия Akida (AKD1000) уже продаётся – её можно купить в виде платы расширения или отдельного чипа[9]. В разработке находятся более продвинутые версии (AKD1500/2000). Компания предлагает SDK MetaTF для конвертации моделей TensorFlow в формат, совместимый с их нейроморфным чипом[10]. Akida нацелен на применения в автомобилях, промышленности, потребительских гаджетах – везде, где нужен умный анализ на краю (например, распознавание жестов, звука, видео на устройстве, а не в облаке). Сейчас BrainChip также сотрудничает с производителями сенсоров – например, совместно с французской фирмой Prophesee интегрируют ивент-камеры (биологически вдохновленные камеры, реагирующие только на изменение сцены) вместе с чипом Akida для создания ультра-эффективных систем зрения.
Другие проекты. Над нейроморфными процессорами работают и университеты, и молодые компании по всему миру. В Европе, например, давно известен проект SpiNNaker (University of Manchester) – кластер из тысяч простых ядер, имитирующий спайковые нейросети в реальном времени. В его второй версии (SpiNNaker 2) на плате уже сотни миллионов синноптических связей моделируются, и система доступна исследователям нейробиологии. Другая европейская разработка – BrainScaleS (университет Гейдельберга, Германия) – пошла по пути аналоговых нейронов на кремнии и достигла значительных успехов в ускоренном аппаратном обучении SNN. В США кроме IBM и Intel можно отметить исследовательские чипы от Stanford (Neurogrid) и MIT. Отдельно стоит упомянуть компанию Qualcomm, которая несколько лет назад анонсировала нейроморфную платформу Zeroth, планируя встроить некоторые нейроподобные функции в мобильные чипсеты Snapdragon – правда, в итоге они сосредоточились на традиционных AI-ускорителях.
И хотя многие из этих проектов пока экспериментальные, общая тенденция ясна: гонка за мозгоподобными чипами началась. Большие и малые игроки вкладываются в разработку, число компаний в области neuromorphic computing перевалило за сотню. Теперь вопрос – кто первым доведёт технологию до массового рынка.
Нейроморфные процессоры из Китая: инвестиции и прогресс
Отдельно нужно рассказать о том, каких успехов добилась Китайская индустрия в этой области. Не секрет, что Китай вкладывает огромные средства в передовые чипы и искусственный интеллект – нейроморфные архитектуры тут не исключение. Более того, именно в Китае были поставлены рекорды масштаба нейроморфных систем.
Самая громкая новость последних лет – запуск в 2025 году системы Darwin Monkey (она же «Wukong») от китайских учёных. Это нейроморфный суперкомпьютер с архитектурой, вдохновлённой мозгом обезьяны. В его составе 960 специализированных чипов Darwin третьего поколения, которые совместно образуют сеть более чем из 2 миллиардов искусственных нейронов и 100 миллиардов синапсов. По числу нейронов этот «электронный мозг» уже приблизился к мозгу макаки! Darwin Monkey – первая в мире вычислительная система такого масштаба, построенная на нейроморфных принципах. Она не просто лабораторный прототип – её уже запустили в работу на практические задачи. Сообщается, что Darwin Monkey успешно выполнял задачи генерации контента, логических рассуждений и математики, используя крупную мозгоподобную модель компании DeepSeek. Иными словами, китайцы продемонстрировали, что большая нейроморфная система может потянуть нагрузки, схожие с нагрузками LLM-моделей, но потенциально с лучшей эффективностью. Это огромный шаг вперёд, который привлёк внимание по всему миру. Некоторые аналитики считают, что Darwin Monkey может стать катализатором для всей отрасли, показав пример, как нужно строить масштабные brain-like компьютеры.
Другой знаковый проект из Китая – это чип Tianjic («Тяньцзи»), разработанный в Университете Цинхуа. О нём громко заявили ещё в 2019 году: исследователи создали гибридный нейроморфный чип, способный одновременно работать и со спайковыми сетями, и с обычными нейросетевыми алгоритмами. Чтобы впечатляюще продемонстрировать возможности Tianjic, его встроили в беспилотный велосипед. Этот велосипед самостоятельно балансировал, объезжал препятствия, следовал голосовым командам («вперёд», «поверни» и т.п.) – словом, показал уровень автономности, ранее не виданный для такого устройства[11][12]. Чип Tianjic содержит 156 ядер (функциональных блоков), ~40 тысяч нейронов и 10 миллионов синапсов, а главное – архитектуру, где каждый ядро может конфигурироваться либо под классическую нейросеть, либо под спайковую[13][14]. Такая универсальность позволяет запускать на одном чипе и алгоритмы глубокого обучения, и нейроморфные SNN, добиваясь синергии. Разработчики прямо заявили, что их цель – приблизиться к AGI (искусственному общему интеллекту) через объединение разных парадигм на уровне железа[15]. Статья о Tianjic вышла в журнале Nature, вызвала большой интерес и показала, что Китай всерьёз претендует на лидерство в сфере интеллектуальных чипов.
Помимо академических проектов, в Китае появляются и коммерческие стартапы, ориентированные на нейроморфику. Один из известных – SynSense (ранее назывался aiCTX), основан выходцами из Цюрихского университета, но сейчас базируется и в Китае тоже. SynSense разрабатывает маломощные нейроморфные чипы для обработки сенсорных данных. В 2023 году они анонсировали процессор Speck (Xylo) – это крошечный чип для обработки событийного видео (с ивент-камер) в реальном времени[16]. Он способен на лету выделять значимые объекты из потока спайков и практически не потребляет энергию – идеальное решение для, скажем, умных камер наблюдения или очков дополненной реальности. Китайские производители электроники уже заинтересовались такими разработками. Ещё один пример – компания Fudan Microelectronics (при Фуданьском университете) создала серию экспериментальных нейроморфных чипов «Brain∮», один из которых использовался для управления роем мини-дронов.
Важный фактор успеха Китая – государственная поддержка. С 2017 года в стране реализуется амбициозный план по развитию ИИ, и специальные «brain-like» чипы там выделены как приоритетное направление[17]. Вкладываются миллиарды юаней, строятся целые исследовательские центры (например, Zhejiang Lab, совместно с Alibaba, участвовавшая в проекте Darwin). Это даёт свои плоды: по оценкам, в Китае сейчас наиболее динамично растёт экосистема нейроморфных вычислений. Уже появляются совместные продукты – например, чипы китайского производства для умных устройств, которые будут использовать спайковые нейросети для сверхэкономичной работы. Вероятно, в ближайшие годы мы услышим о новых рекордах из Поднебесной – будь то по масштабу нейросетевого суперкомпьютера или по массовому внедрению нейроморфных сенсоров в гаджеты.
Российский нейроморфный процессор AltAI: возможности и текущее состояние
Разработка своих нейроморфных процессоров ведётся и в России. Самый известный проект – это AltAI («Алтай»), которым занимается новосибирская компания Мотив НТ при поддержке лабораторий Сбера. AltAI-1 – так называется первое поколение отечественного нейроморфного чипа. По своей концепции он похож на зарубежные аналоги: это сверхбольшая интегральная схема, имитирующая работу биологических нейронных сетей и рассчитанная на исполнение импульсных нейросетей (SNN)[18]. Архитектура AltAI основана на подходе computing-in-memory – вычисления в памяти. То есть, данные обрабатываются прямо в ячейках памяти, где хранятся «веса» нейронных связей, без постоянных выгрузок в отдельную DRAM.
В каждом чипе AltAI-1 содержится множество вычислительных ядер, объединённых в двумерную сетку. Каждое ядро представляет группу искусственных нейронов с локальной памятью для их параметров – порогов активации, синаптических весов и текущих состояний нейронов. Нейроны эмулируют поведение биологических: у них есть мембранный потенциал, они могут генерировать спайк при достижении порога и затем переживать фазу восстановления потенциала. В AltAI применяется дискретизация времени: введён глобальный сигнал «тик» с частотой до 2 кГц, по которому все нейронные ядра синхронно обновляют свои состояния и передают спайки. Таким образом, модель SNN выполняется пошагово, но внутри каждого шага все ядра работают параллельно и могут обработать до 262 тысяч синаптических операций за тик.
Проект AltAI уже достиг важных результатов. В 2023 году разработчики сообщили, что: создан и протестирован прототип чипа AltAI-1 по техпроцессу 28 нм – микросхемы помещены в корпус и проходят испытания. Разработан модуль-ускоритель, объединяющий 8 таких чипов для наращивания мощности. Также создана плата, поддерживающая подключение до 16 модулей (то есть до 128 чипов AltAI одновременно) – фактически, это и есть отладочный нейроморфный суперкомпьютер, который можно вставить в слот PCI-E или USB на обычном ПК. Параллельно сделан программный пакет KNP (Knowledge Processing Platform): туда входит эмулятор процессора AltAI, инструменты для обучения импульсных сетей и даже конвертер ANN2SNN, позволяющий обычную нейронную сеть перевести в импульсный формат. Всё это выложено в open-source, что должно подтолкнуть исследователей и студентов к экспериментам с нейроморфными алгоритмами на нашей элементной базе.
Что умеет AltAI-1? Точных цифр по количеству нейронов или мощности пока не публиковали, но известно, что система на его основе способна в реальном времени обрабатывать сигналы от различных датчиков, распознавать образы, выполнять задачи управления. В материалах Сбера упоминается, что такие нейрочипы найдут применение в робототехнике, беспилотном транспорте, VR/AR, промышленной автоматизации. Нейроморфные алгоритмы на AltAI тестируются для анализа видео и изображений, распознавания речи, управления роботами-манипуляторами. Особый интерес представляет возможность обучения на устройстве – низкое энергопотребление AltAI теоретически позволит обучать небольшие модели прямо на встраиваемых системах без отправки данных в облако (например, адаптировать ИИ-ассистента под голос конкретного пользователя, анализируя речь локально).
Сейчас AltAI находится на стадии опытного образца. Но разработчики уже смотрят вперёд: создан прототип второго поколения AltAI-2. Как они заявляют, новая версия чипа будет более универсальной – сможет решать не только задачи ИИ, но и общевычислительные задачи, если их сформулировать в виде спайковых сетей. Планируется интересная возможность: обучение на датасетах пользователя прямо на чипе, то есть встроенное обучение без внешних вычислительных ресурсов. Кроме того, разрабатывается удобный форм-фактор: сборка модулей AltAI планируется в виде вертикального стека, который можно будет подключать к компьютеру как стандартный накопитель (очевидно, через высокоскоростной интерфейс). Выпуск второго поколения AltAI намечен на начало 2026 года, так что, возможно, уже скоро мы увидим отечественный нейроморфный чип в «железе». Если всё получится, Россия войдёт в узкий круг стран, располагающих собственной нейроморфной технологией, что важно и с практической, и с стратегической точек зрения.
Что уже можно купить: коммерчески доступные нейроморфные процессоры
Мы рассказали о множестве впечатляющих разработок, но внимательный читатель может спросить: а можно ли прямо сейчас взять и попробовать нейроморфный процессор в деле? Скажем, купить плату и подключить к своему ПК?
Ситуация пока складывается так, что большинство проектов остаются в стенах лабораторий и доступны лишь по спецпрограммам сотрудничества. Intel Loihi, например, продаётся только условно – исследовательские группы могут запросить доступ к его облачному сервису или получить плату Nahuku с чипами Loihi, но в рознице его нет. IBM TrueNorth тоже никогда не был товаром – IBM предоставляла его некоторым партнёрам по соглашению, но массово не выпускала. Российский AltAI пока что изготавливается небольшими партиями для тестов, о коммерческих поставках говорить рано (ждём хотя бы второго поколения в 2026). А вот в Китае, несмотря на грандиозные успехи, нейроморфные чипы также не продаются свободно – те же Darwin или Tianjic это научные проекты, не предназначенные для рынка (по крайней мере, пока).
Однако прогресс не стоит на месте, и уже есть первые ласточки коммерциализации. Мы уже упоминали компанию BrainChip – её чип Akida действительно можно заказать. BrainChip продаёт оценочные наборы: например, компактную PCIe-плату с чипом Akida AKD1000 и сопутствующим микроконтроллером[19]. Стоимость таких плат – несколько сотен долларов, и их могут приобрести разработчики, желающие встроить нейроморфный ИИ в свои устройства. Также BrainChip выпустила небольшое устройство Akida Edge AI Box – автономный блок на базе двух чипов Akida, который можно просто подключить к компьютеру по USB для экспериментов, его цена около $799. По сути, BrainChip сейчас является первым поставщиком нейроморфного железа на свободном рынке. Их клиенты – производители электроники, ищущие способы сделать свои гаджеты умнее без большого энергопотребления.
Есть и другие компании, предлагающие ранние образцы. Например, SynSense выпускает чипы для обработки сигналов события: их чип Speck с интегрированным сенсором предназначен для тестирования в мобильных приложениях дополненной реальности. Возможно, через партнеров в Китае какие-то версии таких чипов тоже доступны для заказа, но информации об открытых продажах мало. Европейский стартап Innatera работает над аналоговым нейроморфным ускорителем звука и вибраций (чип Innatera T1), заявляя о пилотных поставках. В целом, экосистема нейроморфного железа только формируется. По прогнозам, с 2025 по 2035 годы рынок neuromorphic computing будет расти стремительно, к нему подключаются всё новые игроки – от гигантов вроде Samsung и NVIDIA до небольших стартапов. Но прямо сейчас на полке магазина вы не найдёте нейроморфный сопроцессор для своего ПК – придётся немного подождать.
Почему ждать? Дело в том, что помимо самого «железа» нужна ещё и софтовая экосистема. Для GPU у нас есть удобные фреймворки (TensorFlow, PyTorch) и тысячи готовых моделей. А как программировать спайковый чип – знает не каждый разработчик. Пока что существуют в основном научные инструменты (например, PyNN для описания нейросетей или упомянутая Intel Lava для Loihi). Отсутствует общестандартный язык или API, которые бы приняло сообщество. Всё это сдерживает коммерческое внедрение – компании боятся, что купят чип, а специалистов под него не найдут. Но ситуация меняется: и Intel, и BrainChip открывают свои SDK, университеты учат студентов нейроморфному программированию, появляются энтузиастские сообщества (как проект OpenNeuromorphic, создавший открытый справочник по существующему нейроморфному железу[20][8]). Так что вопрос доступности – это вопрос времени. Вероятно, в течение ближайших 2–3 лет на рынке появятся первые нейроморфные ускорители в составе каких-нибудь камер или смартфонов, что автоматически сделает их массово доступными (пусть и в составе конечного устройства).
Прорывы в ИИ и робототехнике в ближайшие годы благодаря нейроморфным процессорам
Что же даст нам широкое внедрение нейроморфных процессоров? Давайте помечтаем (опираясь, впрочем, на реальные тенденции).
Во-первых, мы увидим значительное ускорение и удешевление ИИ. Модели, которые сейчас требуют облачных GPU, смогут выполняться локально на микрочипах. Это значит – персональные умные ассистенты на вашем телефоне или ноутбуке, которые работают полностью офлайн, быстро и конфиденциально. Больше не придётся отправлять голосовые запросы на сервер – нейроморфный сопроцессор распознает речь на самом устройстве за доли секунды и не сядет при этом батарею. Обучение на устройстве тоже станет реальностью: гаджет сможет сам подстраивать модель под вашего питомца или под ваш почерк, не требуя ни облака, ни розетки. Таким образом, ИИ станет куда более персонализированным и в то же время приватным.
Во-вторых, нейроморфные чипы произведут революцию в робототехнике и автономных машинах. Возьмём беспилотный автомобиль – сейчас в нём десятки классических процессоров и графических ускорителей, которые едва справляются с кучей камер и лидаров, при этом потребляют киловатты и греются, как печка. Нейроморфная система смогла бы обрабатывать все сенсоры параллельно и почти мгновенно, работая больше как мозг живого водителя. Реакция на внезапное препятствие могла бы измеряться миллисекундами (без задержек на отправку данных в облако), что повысит безопасность. И всё это – на меньшей электроэнергии, то есть электромобиль получит дополнительный запас хода вместо кормления бортового ИИ. Похожим образом и в дронах: нейроморфный чип позволит компактному беспилотнику ориентироваться и избегать столкновений самостоятельно, без связи с оператором, летая часами от одной зарядки.
В медицине нас тоже ждёт прогресс. Миниатюрные нейроморфные датчики можно будет разместить на теле или имплантировать внутрь для постоянного мониторинга состояния организма. Например, умный кардиостимулятор с нейроморфным модулем мог бы анализировать ЭКГ в режиме реального времени и предсказывать аритмии, корректируя работу сердца превентивно. Нейроморфные чипы уже исследуют для управления бионическими протезами: они достаточно компактны и энергоэффективны, чтобы стоять в самом протезе руки или ноги и обрабатывать сигналы от мышц, превращая их в плавные движения почти без задержки[21]. По сути протез с таким чипом обретает некий «спинной мозг», благодаря которому движется естественнее. В диагностике – нейроморфные устройства могут ускорить обработку медицинских изображений (МРТ, КТ, рентген) прямо в приборе, помогая врачу мгновенно видеть результаты сложных анализов[22].
Другой важный эффект – доступность ИИ в удалённых и энергозависимых местах. Представьте сельскую школу в горах или исследовательский зонд на другой планете. Им всем сейчас сложно пользоваться продвинутым ИИ: нужен интернет и мощное питание. С нейроморфными технологиями умные функции придут туда, где нет интернета и розетки. Камера-ловушка в тайге сможет самостоятельно классифицировать животных и передавать только значимые данные, экономя батареи. Спутник на орбите сможет на лету фильтровать изображения, выделяя аномалии, вместо того чтобы слать петабайты сырых данных вниз. Это сделает технологии умнее и экологичнее: ведь обработка данных на месте не требует тратить энергию на передачу гигабайтов по сети (а дата-центры – на их хранение).
Не забудем и про фундаментальную науку. Нейробиологи получат новые инструменты для изучения мозга. Уже сейчас нейроморфные аппараты используются для моделирования отдельных областей мозга, проверки гипотез о нейронных сетях и даже для поиска принципов, стоящих за человеческим интеллектом[23]. По мере роста мощности нейроморфных компьютеров учёные смогут симулировать всё более сложные участки мозга, вплоть до миллиардов нейронов, что раньше было немыслимо. Это может привести к прорывам в понимании сознания, памяти, обучения – ведь у нас появится своеобразный «микроскоп» для исследования динамики больших нейронных сетей вживую, на кремнии. А это, в свою очередь, может родить новые алгоритмы ИИ, ещё более совершенные и близкие к биологическим.
Конечно, не стоит думать, что нейроморфные процессоры мгновенно заменят привычные CPU и GPU повсеместно. У них есть свои ограничения: сложность программирования, пока ещё низкая разрядность вычислений (снижающая точность на некоторых задачах), недостаточная зрелость инструментов разработки. Но потенциал огромен. Эксперты отмечают, что нейроморфные системы могут сократить энергопотребление ИИ-вычислений на порядки, что актуально в эпоху стремления к углеродной нейтральности. А комбинация высокой отзывчивости, адаптивности и локальной автономности открывает двери для новых приложений ИИ, о которых мы раньше только фантазировали.
В ближайшие годы мы, вероятно, увидим гибридный подход: нейроморфные ускорители будут встраивать в связке с обычными процессорами. Уже сейчас говорят о включении spiking-ядра в состав будущих SoC для интернета вещей – чтобы простейшие паттерны событий определялись аппаратно и мгновенно. Затем, по мере роста доверия, нейроморфные чипы могут занять место и в серверных решениях – например, для ускорения определённых типов нейросетевых вычислений (тех же рекуррентных или спайковых слоёв в больших моделях).
И кто знает, возможно, прорыв, сравнимый с появлением ChatGPT, случится именно на почве аппаратных инноваций. Ведь мозг человека – лучший пример общей интеллекта – работает именно на нейроморфных принципах. Копируя их, мы получаем шанс создать действительно умные машины, а не просто огромные статистические модели. Вполне возможно, что следующий скачок – это не модель GPT-5 с триллионом параметров, а какое-нибудь «NeuroGPT» на спайковом кремнии, умеющее рассуждать и учиться почти как человек, и при этом укладывающееся в карманный девайс. Звучит смело, но именно для этого и прокладывают дорогу нейроморфные процессоры – компьютеры будущего, которые учатся и думают как мозг, а работают быстрее и экономичнее любого кремниевого предшественника. Если они массово внедрятся, то прогресс ИИ вновь пойдёт семимильными шагами – и мы, вероятно, станем свидетелями новых удивительных возможностей, которые сегодня относим к области фантастики.
Чтобы заключить: нейроморфные процессоры – это не просто очередное улучшение компьютеров. Это новая парадигма, сближающая вычислительную технику с живой природой. Она обещает нам умные, адаптивные и энергетически эффективные системы, которые смогут решать задачи, ранее недоступные традиционным технологиям. И хотя впереди ещё много работы, уже сейчас ясно – будущее ИИ и робототехники во многом зависит от успехов нейроморфных архитектур. Оно уже наступает, и ближайшие годы обещают быть очень интересными!
[1] How IBM Got Brainlike Efficiency From the TrueNorth Chip — IEEE Spectrum
https://spectrum.ieee.org/how-ibm-got-brainlike-efficiency-from-the-truenorth-chip
[2] [16] BrainChip Unveils Ultra-Low Power Akida Pico for AI Devices — IEEE Spectrum
https://spectrum.ieee.org/neuromorphic-computing
[3] Intel представила второе поколение нейроморфного чипа Loihi
https://hightech.plus/2021/10/01/intel-predstavila-vtoroe-pokolenie-neiromorfnogo-chipa-loihi
[4] Intel Advances Neuromorphic with Loihi 2, New Lava Software Framework and New Partners :: Intel Corporation (INTC)
https://www.intc.com/news-events/press-releases/detail/1502/intel-advances-neuromorphic-with-loihi-2-new-lava-software
[5] Intel unveils 1.15bn neuron neuromorphic system, Hala Point — DCD
https://www.datacenterdynamics.com/en/news/intel-unveils-115bn-neuron-neuromorphic-system-hala-point/
[6] World’s biggest ‘brain-like’ computer — ScienceDirect
https://www.sciencedirect.com/science/article/pii/S0262407924007735
[7] [8] [9] [10] [20] A Look at Akida — BrainChip — Neuromorphic Chip — Open Neuromorphic
https://open-neuromorphic.org/neuromorphic-computing/hardware/akida-brainchip/
[11] [12] [13] [14] [15] [17] Watch China’s New Hybrid AI Chip Power an Autonomous Bike
https://singularityhub.com/2019/08/07/watch-chinas-new-hybrid-ai-chip-power-an-autonomous-bike/
[18] [21] [22] [23] Российский нейроморфный процессор: что это и почему он важен? / Хабр
https://habr.com/ru/companies/sberbank/articles/916878/
[19] Akida™ PCIe Board — BrainChip Inc
