Самый мощный суперкомпьютер в России

Влад Лесной
Друзья!

Из Сети.
"В рейтинг пятисот суперкомпьютеров мира попали 7 машин, расположенных в Российской Федерации. Давайте познакомимся с ними поближе.
№1. «Червоненкис» (25 место из 500, компания Яндекс)
Этот суперкомпьютер назван в честь одного из крупнейших теоретиков машинного обучения Алексея Яковлевича Червоненкиса (все суперкомпьютеры Яндекса названы в честь какого-либо ученого-информатика).
Датой рождения супермашины является 2021 год, находится она в одном из крупнейших дата-центров Яндекса в городе Сасово (Рязанская область).

Является самым мощным суперкомпьютером в России и странах Восточной Европы. Заявленная создателями рабочая производительность составляет 21,5 петафлопс, в пике она может достигать 29,4 петафлопс (говоря проще, это очень МНОГО). На борту 199 терабайт оперативной памяти и 25 472-ядерный процессор, в качестве GPU используются 1592 процессоров NVIDIA A100 80G.
№2. «Галушкин» (44 место из 500, компания Яндекс)
Получил имя в честь одного из главных исследователей теории нейронных сетей Александра Ивановича Галушкина. Был введен в эксплуатацию в 2021 году, расположен в дата-центре Яндекса в городе Владимир.
Заявленная рабочая производительность 16 петафлопс, которая в пике может достигать 20,6 петафлопс. Памяти в суперкомпьютере 136 терабайт, процессор на 17 408 ядер, имеется 1088 графических процессоров NVIDIA A100 80G.
№3. «Ляпунов» (47 место из 500, компания Яндекс)
Суперкомпьютер был назван в честь знаменитого математика Алексея Андреевича Ляпунова, чьи работы лежат в основе компьютерных наук. Это самый «старичок» из технопарка Яндекса, его запустили в 2020 году. Расположен он там же, где и первая супермашина - в дата-центре Сасово.
Заявленная рабочая производительность составляет 12,8 петафлопс, в пик
доходит до 20 петафлопс. Памяти в нем 68,5 терабайт, процессор с 17 536 ядрами и 1096 процессоров NVIDIA A100 40G.
№4. «Кристофари Нео» (50 место из 500, компания Сбербанк)
Первый из двух суперкомпьютеров от Сбербанка, который попал в рейтинг. Оба названы в честь Николая Кристофари - первого клиента банка, который открыл там сберкнижку в 1842 году. Впервые суперкомпьютер был презентован в ноябре 2021 года.
Производительность, которую заявили создатели, составляет 12 петафлопс, суперкомпьютер построен на базе узлов Nvidia DGX A100, специально разработанных для машинного обучения. Один такой узел (из 700 имеющихся) имеет 256 процессорных ядер, 8 графических ускорителей Nvidia A100 80G и 2 терабайта оперативной памяти.
№5. «Кристофари» (86 место из 500, компания Сбербанк)
Первый суперкомпьютер Сбербанка, созданный в 2019 году. На момент выхода являлся сороковым в мире, седьмым в Европе и первым в России по мощности. Является также первым аттестованным суперкомпьютером для работы с персональными данными.
Заявленная мощность составляет 6,7 петафлопса, он построен на узлах DGX-2 от все той же Nvidia. Каждый узел имеет 48 процессорных ядер, 16 графических ускорителей NVIDIA Tesla v100 с 32 гигабайтами памяти каждый и 1,5 терабайта ОЗУ.
№6. «Ломоносов 2» (290 место из 500, компания Т-Платформы)
Построен для МГУ им. М. В. Ломоносова в 2017 году, находится на территории Научно-исследовательского вычислительного центра университета.
Рабочая производительность составляет 2,4 петафлопса, в пике достигает 4,9. Суперкомпьютер построен на базе 1730 вычислительного узла, которые имеют в совокупности 64 384 ядер, 110,7 терабайт оперативной памяти и Nvidia Tesla K40M в качестве графического ускорителя.
№7. «МТС ГРОМ» (352 место из 500, компания МТС)
Презентация первого суперкомпьютера от МТС состоялась летом 2021 года, расположен в собственном дата-центре компании.
Заявленная производительность составляет 2,26 петафлопс, устройство построено на 155 узлах NVIDIA DGX A100. Суммарно насчитывается 19 840 процессорных ядер, 20,5 терабайт оперативной памяти и 320 гигабайт видеопамяти полученной от использования восьми видеоускорителей NVIDIA A100 40G.
Используемые дистрибутивы Linux
В самом рейтинге напротив каждого российского суперкомпьютера указано просто «Linux», но порывшись в интернете я узнал, что все решения от Nvidia работают на базе Ubuntu, которую «зеленые» слегка доработали под свои нужды. Получается, что все семь российских машин «крутятся» на Ubuntu.
Для чего используются российские суперкомпьютеры?
Суперкомпьютеры Яндекса используются для обучения нейронных сетей, используемых в проектах компании. Например, в Яндекс Браузере есть функция автоматического перевода видеороликов на русский язык. Этим как-раз таки занимается специальная нейронная сеть. Умные устройства на базе помощника Алиса также подключены к нейронке и вся поступающая от них информация обрабатывается суперкомпьютерами.

Суперкомпьютеры «Кристофари» являются единственными, которые открыты для использования другими пользователями. Сбербанк построила на их основе решение SberCloud, которое предлагает корпорациям для ускорения работы их ИТ-проектов. Ну и наверняка компания также задействует мощности для своих внутренних проектов, например в аналитике финансовых рынков.
«Ломоносов-2» используется по прямому своему назначению - для анализа различных научных данных и математических расчетов.
«МТС ГРОМ» является внутренним суперкомпьютером компании и предлагается партнерам в рамках проекта Cloud MTS.
Ложка дегтя в эту бочку меда
В ноябре 2022 года компания Nvidia заявила о том, что уходит из России и не будет более поддерживать корпоративный клиентский сектор. Еще в сентябре 2022 года правительство США запретило компаниям Nvidia и AMD поставлять российским корпорациям ряд высокотехнологичных продуктов. Среди продукции Nvidia под запрет попали «серверы и рабочие станции DGX/HGX или любые другие системы, включающие чипы A100/A100X или H100, а также
любые будущие чипы NVIDIA, обеспечивающую пиковую производительность или обмен данными между чипами, которые примерно эквивалентны A100, а также любой системе, включающей эти чипы».
Как видим, все наши суперкомпьютеры основаны на решениях от «зеленых» и уже к концу 2022 года становится заметным, что имеющиеся в мире суперкомпьютеры не стоят на месте и развиваются бешеными темпами.
Например, самый мощный суперкомпьютер в России «Червоненкис» за полгода (с июля по ноябрь) опустился в мировом рейтинге на 3 пункта (еще в июле 2022 года он занимал 22 место). Технологии не стоят на месте, а количесто информации для обработки постоянно прибавляется. Смогут ли топовые
российские суперкомпьютеры, основанные на уже закрытых технологиях, в этой ситуации удерживаться в мировом топе?
Особо остро стоит вопрос появления новых супермашин: как я понял из прочитанного в различных источниках, суперкомпьютер это не наше с вами «ведро», куда при желании можно вставить нужное количество оперативной памяти или новую видеокарту. Обновление такого мощного устройства если и возможно, то затратно настолько, что проще изготовить новый. Но из чего его изготавливать, если для того, чтобы дойти до того же уровня технологий, которые есть у Nvidia и производить конкурентный аппаратный продукт, России понадобится несколько десятилетий?".https://dzen.ru/articles
...Увы, серьёзно опоздали россияне! Теперь  же надо срочно догонять ушлых  западников!
ВАл.Назаров
**************
1.Суперкомпьютеры Яндекса: взгляд изнутри

Недавно три наших новых GPU-кластера заняли 19, 36 и 40 места в рейтинге суперкомпьютеров Top500. Это лучшие результаты среди всех участвующих в нём суперкомпьютеров России.

Последний год был очень необычным в Яндексе. Мы собрали и запустили три новых GPU-кластера для задач в области машинного обучения. (К примеру, теперь именно на них обучаются гигантские нейросетевые модели Поиска, Алисы и других наших сервисов.) Может показаться, что для запуска такого кластера самое сложное — это купить вагон GPU-карточек. В условиях «чипагеддона» это отчасти правда, но нет, самое сложное не в этом. Тут-то и начинается наша история.
Пробный подход к снаряду
В 2019 году произошла так называемая «революция трансформеров»: был опубликован ряд статей, которые показали, что применение гигантских нейросетей-трансформеров даёт удивительные результаты на задачах анализа текста. В частности, эти сети очень хорошо подходят для решения задачи ранжирования документов по запросу и для машинного перевода. Более того, их применение не ограничивается сугубо языковыми задачами: трансформерная архитектура позволяет генерировать голос из текста и наоборот, предсказывать действия пользователя и многое другое. В общем, именно трансформеры сейчас определяют качество основных продуктов Яндекса. (Если вам интересны детали, коллеги уже рассказывали на Хабре о внедрении этой архитектуры в нашем поиске.)
Но проблема была в том, что обучение таких моделей требует огромных вычислительных мощностей. Например, если обучать модель с нуля на обычном сервере, на это потребуется 40 лет, а если на одном GPU-ускорителе V100 — 10 лет. Но хорошая новость в том, что задача обучения легко параллелится, и если задействовать хотя бы 256 тех же самых V100, соединить их быстрым интерконнектом, то задачу можно решить всего за две недели. (Сейчас мы такую задачу можем решить за несколько часов, но об этом позже.)
Мы попробовали собрать «нулевой» кластер буквально из того, что было под рукой. Взяли несколько серверов, вставили в них по восемь GPU V100 от NVIDIA, а в качестве интерконнекта использовали две карты Mellanox ConnectX-5 EN в режиме RoCEv2. Попробовали. Расстроились.
Результаты замеров показали низкий КПД масштабирования. В попытках понять причину придумали методику оценки, которая не требовала глубокого понимания алгоритма работы конкретного обучения. Достаточно построить график потребления энергии и обмена трафиком в одном масштабе. Здесь приведён реальный график тех времен, полученный на «нулевом» кластере:
Net RX, MB/s
Даже без глубоких познаний в ML-моделях всё понятно. Обучение идет повторяющимися итерациями:
1. Каждый GPU получает свой batch и обсчитывает его (синяя ступенька)
2. Затем GPU обменивается по сети с соседями посчитанными результатами (зелёная ступенька)
3. GOTO 1
На графике сразу же виден корень проблемы. Время обмена по сети составило 50%, а GPU всё это время простаивал. Не самый эффективный способ использовать железо, согласитесь.
Причина была в том, что серверы, которые у нас были под рукой, использовали PCIe Gen3 x8, и больше 62 Гбит/с по сети мы получить не могли. Эксперименты на таком кластере проводить можно, но считать что-то серьёзное — нереально. Поэтому стали собирать новое решение, «расшивая» все узкие места интерконнекта. Попутно столкнулись и с другими сложностями. Например, оказалось, что большинство стандартных утилит для работы с HPC (High Performance Computing) поддерживают только IPv4. Яндекс, в свою очередь, уже много лет живёт в дата-центрах IPv6-only. «Из коробки» мало что заработало сразу, пришлось фиксить. Фиксы, кстати, выкладываем в опенсорс.
Первые кластеры
Первый мини-кластер GPU, созданный специально под задачи применения трансформеров c учётом описанных выше узких мест, появился у нас во владимирском дата-центре летом 2020 года. Он был построен из стандартных серверов c NVIDIA Tesla V100-SXM2-32GB. В кластере было 62 узла по 8 GPU в каждом — всего 496 видеокарт. Казалось бы, сотни видеокарт! Но этого по-прежнему было мало для наших задач, хотя кластер и помог нам начать внедрять трансформеры для улучшения Поиска.
Затем в другом нашем ДЦ, в городе Сасово в Рязанской области, появился первый большой кластер. Мы назвали его в честь Алексея Ляпунова — знаменитого математика, чьи работы лежат в основе кибернетики и теории машинного обучения.
«Ляпунова» мы уже строили из серверов на базе NVIDIA HGX A100, в каждом из которых было:
• 2x AMD EPYC 7662, 512GB RAM
• 8x A100-40G
• 4x Mellanox ConnectX-6 IB 200Gib
В теории скорость обмена по сети между хостами должна была составить 96 ГБ/с, но первые замеры показали жалкие 40 ГБ/с. Мы вновь где-то потеряли 50%. В ходе многочасового хакатона с инженерами NVIDIA выяснилось, что проблема в скорости обмена по PCIe-шине между GPU и
сетевой картой. Пришлось искать причины и оптимизировать.
Так мы получили 90 ГБ/с на тесте nccl-test/all_reduce_per и решили, что «Ляпунов» готов. Коллеги из локального офиса NVIDIA посоветовали потратить ещё несколько дней на замеры производительности, чтобы зарегистрировать кластер в списке Top500. Но в тот момент мы от этого отказались: торопились отдать кластер нашим ML-инженерам, чтобы загрузить его работой уже на новогодние праздники. Тем более, что тогда мы ещё не осознавали никакой практической пользы от замеров.
У нас сильная команда R&D и мы уже давно проектируем собственные серверы, благодаря чему экономия на охлаждении может достигать 50%. Логично было распространить этот опыт и на GPU.
Для размещения кластеров выбрали недавно переданные в эксплуатацию модули в дата-центрах Сасово и Владимира. Сами кластеры назвали соответственно «Червоненкис» (в честь Алексея Червоненкиса, одного из крупнейших теоретиков машинного обучения) и «Галушкин» (Александр Галушкин — один из главных исследователей теории нейронных сетей).
Кластеры строили по модульной схеме, где к каждому серверу подключается JBOG-и (Just a bunch of GPUs). Разберём, как устроены стойки в кластере:
• Четырёхюнитный JBOG c x8 NVIDIA А100-80G, x6 NVSwitch, 4x Mellanox ConnectX-6 IB HDR 200G. Размер обусловлен встроенной системой охлаждения.
• Сервер половинной ширины 2x AMD 7702, 1024GB RAM на два юнита. В нём находится пятая сетевая карта Mellanox ConnectX-6 100G Ethernet.
• Сетевые карты IB HDR JBOG-ов скоммутированы оптическими кабелями в Infiniband через патч-панель в середине стойки. Они связывают GPU для вычислений.
• Серверные сетевые карты 100GE обеспечивают связность кластера и доступ к хранилищам данных.
• В каждой стойке по три комплекта оборудования. Это продиктовано энергопотреблением — до 20 кВт.
(Кстати, такие же NVIDIA А100-80G мы сейчас открываем для клиентов Yandex.Cloud, но об этом поговорим в другой раз.)
Обратите внимание на отсутствие любых декоративных пластиковых элементов. Зато есть много свободного места, чтобы воздух мог обдувать огромные радиаторы GPU в центре, именно
за счёт этого получается экономить электричество на охлаждении.
В кластере 199 серверов с GPU — такое количество обусловлено экономической целесообразностью сборки ядра Infiniband по стандартной схеме на 800 портов с использованием 40-портовых 1U HDR-коммутаторов. Двухсотый сервер не имеет GPU в своем составе и используется для управления сетью Infiniband.
Легко заметить: в отличие от стандартной DGX-A100 от NVIDIA со схемой 8(1-GPU + 1-IB_NIC), мы построили своё решение по схеме 4(2-GPU + 1-IB_NIC). Это позволило создавать кластеры в два раза большего размера по сравнению с коробочным решением SuperPod. Дело в том, что NVIDIA SuperPod — это решение общего назначения, которое решает любые задачи одинаково хорошо. А мы оптимизировали наши кластеры под решение именно наших задач и показали, что сети 768 Гбит/с на хост вполне достаточно. Например, вот так выглядят типичные итерации обучения.
О г—Замеры
После успешного решения этих и других проблем мы наконец-то получили заветное линейное масштабирование на 152 хостах, доступных на тот момент. Получилось 15,2 петафлопса. Но была одна проблема: пока мы настраивали кластер, закрылось окно подачи в июньский рейтинг. Мы опоздали буквально на одну неделю. Поэтому решили взять паузу с замерами linpack до осени. За это время мы внедрили все найденные оптимизации на новых кластерах и отдали их пользователям — разработчикам и инженерам внутри компании. Кластер «Ляпунов» решили пока не выводить на обслуживание, потому что он в два раза меньше и у нас не было уверенности, что в нём проявится баг с адаптивным роутингом. Обслуживание означало задержку в расчётах критически важных ML-обучений. Поэтому тоже решили отложить до осени.
Первый замер
8 октября мы провели первый замер всех трёх кластеров. ML-инженеры согласились отдать кластеры всего на несколько часов: за это время нужно было сделать несколько прогонов, чтобы подобрать оптимальные параметры. Вот какие результаты у нас получились:
• Кластер «Червоненкис» (SAS-GPUIB2), 196 узла — 21,52 петафлопса,
• Кластер «Галушкин» (VLA-GPUIB3), 104 узла — 11,5 петафлопса
• Кластер «Ляпунов» (SAS-GPUIB1), 134 узла — 9,46 петафлопса
Результаты хорошие, но «Ляпунов» явно не дотягивал до ожидаемых значений. Стало очевидно, что проблема с адаптивным роутингом влияет на него больше, чем мы полагали. Дальнейшие разбирательства показали, что потери производительности на «Ляпунове» проявлялись уже на масштабе 8 хостов, а на масштабе всего кластера составляли около 30%. Мы решили выводить кластер на обслуживание как можно раньше.
Второй замер
19 октября «Ляпунов» был успешно обновлён. Теперь самое интересное. Сравните результаты:
• Было 9,46 петафлопса
• Стало 12,81 петафлопса
Итого рост +35% к масштабируемости всего кластера. Это очень круто. В реальности с обучением ML-моделей на масштабах 8-24 хостов мы ожидаем получить приращение 10-15%. В процессе второго замера обратили внимание, что график сети продолжает быть нестабильным. Как выяснилось, проблема в эффекте резонанса мониторинговых сервисов. У нас есть несколько таких сервисов, которые периодически опрашивали состояние GPU через утилиту nvidia-smi, что на больших запусках приводило к деградации в 2-4%. Мораль: опрос перфоманс-метрик в драйвере NVIDIA не бесплатный, не нужно проводить его слишком часто.
Третий замер
Буквально на прошлой неделе мы закончили монтаж новых стоек — число узлов в кластере «Галушкин» должно увеличиться со 104 до 195. Очень хотелось успеть обновить результат до закрытия окна подачи в Top500, то есть до 7 ноября. Но к этому моменту мы успели подключить и проверить только 136 узлов. Зато у нас уже было гораздо больше опыта, и мы починили проблему с излишним влиянием мониторингов. Поэтому результат получился очень хороший: 16,02 петафлопса. В сумме по трём кластерам вышло 50,3 петафлопса. В ближайшее время нужно проверить оставшиеся узлы. Нам ещё есть над чем работать, но это уже другая история.
Чему мы научились
Мы строили свои кластеры для решения реальных задач машинного обучения, руководствуясь имеющимся опытом (в серверах, сетях, средах окружения и так далее). Linpack мы рассматривали как незначительную вспомогательную задачу. В результате мы поняли, что строить и валидировать такие системы — совершенно новый и полезный опыт для нас. Также оказалось, что linpack — отличный инструмент интеграционного тестирования. Он позволил найти и починить сразу несколько багов в продакшене, которые мы раньше просто не замечали.
Возникает вопрос: почему именно linpack оказался настолько хорошим инструментом? Чтобы ответить, нужно посмотреть на график обмена данными за 1 секунду.

Видно, что за секунду он успевает сделать 4,5 синхронных итерации — это в 2-4 раза чаще, чем наши реальные обучения. Именно поэтому linpack гораздо чувствительнее к различным задержкам на узлах. Например, альтернативный тест HPCG показал себя намного хуже: он не загоняет GPU в критические температурные режимы и использует лишь 10% сети.
Итоги
Построение и эксплуатация суперкомпьютеров — интересная, но сложная задача. Экспертизы очень сильно не хватает: абсолютное большинство компаний не собирают свои суперкомпьютеры. В то же время учиться на собственных ошибках — дорогое удовольствие: простой кластера стоит десятки тысяч долларов в сутки. Поэтому для нас обмен опытом —критически важная вещь.
https://habr.com/ru/companies/yandex/profile/
*************
2.В Шуе начнут выпускать улучшенные ноутбуки «Аквариус» с 5-ГГц процессорами

Российская компания «Аквариус» планирует наладить выпуск улучшенных ноутбуков на своём производственном комплексе в Шуе, пишет «РИА Новости» со ссылкой на информацию предприятия.

«"Аквариус" запускает производство российских многофункциональных ноутбуков с высоким разрешением экрана. <...> Ноутбук Aquarius Cmp NS616 разработан в собственном R&D-центре-центре и произведён в рамках кооперации на предприятиях группы: системная плата изготовлена на производстве в Шуе, а сборка готовой продукции выполнена в Твери», — сообщила компания.
Ноутбук оснащён 16-дюймовым экраном с разрешением 2560 х 1600 пикселей и базируется на энергоэффективном процессоре с частотой до 5 ГГц, название которого не уточняется. Спецификации устройства включают адаптеры беспроводной связи Wi-Fi 6 и Bluetooth 5.2. Также опционально будет предложена установка LTE-модема. Ёмкости аккумулятора достаточно для до 13 часов автономной работы.
Устройство, как сообщается, можно использовать для выполнения различных задач, в том числе для бизнеса, учёбы, работы с графическими и видеоматериалами.
Также было отмечено, что новый ноутбук внесён в Единый реестр отечественной радиоэлектронной продукции Минпромторга.
https://3dnews.ru/
*****************
3.Для чего России суперкомпьютеры и как они создаются

Что такое суперкомпьютер? Это устройство, чья производительность в сотни или даже тысячи раз превосходит возможности обычных компьютеров, которые сейчас есть практически в каждом доме. Суперкомпьютеры — универсальный инструмент, необходимый практически во всех сферах промышленности. Одна из наиболее актуальных областей, где необходима исключительная вычислительная мощь, — искусственный интеллект (ИИ) и машинное обучение, однако суперкомпьютер способен поднять на новый уровень любую сферу, где активно применяется цифровизация.
Самые быстрые в мире
Мощность суперкомпьютеров принято определять флопсами (FLOPS, акроним от англ. FLoatingpoint OPerations per Second) — количеством операций над числами с плавающей точкой в секунду. Самые первые суперкомпьютеры имели производительность около 1 флопс, то есть 1 тыс. операций в секунду.
Россия — одна из немногих стран мира, которая имеет собственные суперкомпьютеры и входит в глобальный топ-500 по их мощности. В список вошли «Червоненкис» («Яндекс», 36-е место в мире), «Галушкин» («Яндекс», 58-е место), «Ляпунов» («Яндекс», 64-е место), «Кристофари Neo» («Сбер», 67-е место), «Кристофари» («Сбер», 119-е место), «Ломоносов-2» (МГУ, 370-е место) и GROM (МТС, 433-е место). Создание и поддержание подобных систем — показатель высочайшего уровня работы российских IT-компаний, и с этим вряд ли кто-то будет спорить.
Для чего же нужны эти супермашины? Вариантов их применения масса. Финансовая аналитика, инженерные расчеты, медицина, энергетика, государственные и оборонные цели — производительные суперкомпьютеры способны совершить революцию в каждой из этих областей. По этой причине развитие отечественной производственной базы для создания машин исключительной вычислительной мощности — одна из наиболее приоритетных задач.
Еще одна отрасль, развитие которой напрямую связано с суперкомпьютерами, — искусственный интеллект (ИИ). О перспективности и важности этого направления говорит уже то, что в 2022 году рынок ИИ в России увеличился в годовом выражении на 18% и достиг отметки в 650 млрд рублей. Интерес к технологии продиктован ощутимым экономическим эффектом, который дает ее применение. К 2023 году благодаря применению этих технологий компании снизили операционные расходы на 400 млрд рублей, а к 2025 году эта сумма превысит 1 трлн рублей.
Для разработок в области ИИ нужны высокопроизводительные вычисления (High Performance Computing, HPC) — суперкомпьютеры. Мировой рынок HPC в 2023 году, согласно прогнозам Mordor Intelligence, превысит $56 млрд и до 2028 года будет расти в среднем на 11% в год.
По словам одного из ведущих специалистов в области нейросетей и теории искусственного интеллекта, директора Института проблем управления РАН, академика Дмитрия Новикова, искусственные нейронные сети успешно применяются во многих областях. При этом, подчеркивает он, ажиотаж вокруг термина ИИ скорее вредит развитию технологий в этой области.

«Самая главная опасность здесь — цивилизационно-образовательная. В самом деле, если у нас будет тотально принят безмодельный подход, то зачем нам изучать в школе физику, химию, биологию и даже математику. Вместо этого мы «настроим сетку», как говорит сейчас молодежь, и она сама во всем разберется. В результате в этой области складывается очень тревожная структура знаний и компетенций», — предупреждает Новиков.
Технологии будущего
Академик рассказал, что возглавляемый им институт недавно организовал совместно с одним из банков хакатон по решению задач использования искусственного интеллекта в сельском хозяйстве.
«Хакатон — это когда предлагается несколько задач, и соревнующиеся команды должны
за заданное время решить их, после чего жюри по заранее определенным критериям определяет победителей. Когда мне коллеги рассказали о том, кто там победил, я был сначала очень удивлен, потому что в решении одной из задач победила команда, состоящая из двух старшеклассников и
одного студента.
Нейросети с каждым днем становятся все более привычной частью жизни простых пользователей и профессионалов, а массивы информации, требующей обработки, только увеличиваются.
Для быстрого решения актуальных задач мощность суперкомпьютеров необходимо увеличивать и дальше, о чем заявил президент России Владимир Путин на конференции AI Journey, посвященной развитию ИИ.
Разработка новых суперкомпьютеров в России — процесс, который непрерывно продолжается. Так, в Новосибирске завершили тестирование нового суперкомпьютера для Института математики СО РАН. Общая производительность кластера составляет 54,4 терафлопс (54,4 трлн операций в секунду), что позволит сотрудникам института решать сложные исследовательские задачи в области математики, физики, биологии и других наук.
Кроме того, в России до 2030 года может появиться 10 новых суперкомпьютеров, по мощности многократно превышающих большинство аналогичных устройств на территории РФ. Об этом говорится в рабочем документе АНО «Цифровая экономика», составленном по итогам конференции «Э+Данные», которая прошла 11 сентября.
Как следует из презентации АНО «Цифровая экономика», суперкомпьютеры предложила создать подгруппа «Доверенная инфраструктура», возглавляемая вице-президентом «Ростелекома» Борисом Глазковым.
https://www.gazeta.ru/
****************
4.В Москве запустили серийное производство материнских плат.
Они изначально созданы под отечественные процессоры

Их можно использовать в дисплеях, сенсорных панелях, моноблоках и телевизорах По сообщению руководителя московского Департамента инвестиционной и промышленной политики Владислава Овчинского, компания — резидент особой экономической зоны (ОЭЗ) «Технополис Москва» разработала и запустила в производство материнскую плату с поддержкой отечественных процессоров. Только для собственных нужд в 2024 году предприятие планирует произвести около 30 тысяч экземпляров нового продукта.
Компания «Некс-Т», известная на рынке под брендом NexTouch, в месяц выпускает до четырёх тысяч единиц различных устройств, включая сенсорные панели, столы, ЖК-дисплеи и другое интерактивное оборудование — всего более 45 видов. Инженеры предприятия за 18 месяцев создали универсальную материнскую плату, которую можно использовать в дисплеях, сенсорных панелях, настольных моноблоках, телевизорах. Она сразу проектировалась под отечественные процессоры «Элвис» и «Байкал» с соответствующей схемотехникой, что обеспечивает независимость российского аппаратного обеспечения, как отметил Овчинский.
Сейчас производство таких плат запущено в Зеленограде. В 2024 году на площадке «Печатники» в ОЭЗ «Технополис Москва» компания планирует выпускать материнские платы в больших объёмах: около 30 тысяч штук в год. Предприятие планирует в первую очередь закрыть собственные потребности для готовой продукции и новинок, запланированных на следующий год.
https://www.ixbt.com/
****************
Материалы из Сети подготовил Вл.Назаров
Нефтеюганск
12 декабря 2023 года