Искусственный интеллект — за горами - Expotion

Искусственный интеллект — за горами

Если сравнивать современные нейронные сети с человеческим мозгом, можно прийти к выводу: даже самые крупные нейросети на сегодняшний день уступают мозгу человека по числу параметров — как минимум в тысячи раз, а вычислительная мощность для обучения сопоставимого масштаба будет доступна только через десятки лет.

Приближение

Рассмотрим память человека за 20 лет как веса и параметры модели. 

Сведение объёма биологической памяти к эквиваленту текстовых-LLM-токенов (≈ 4 байта ≈ ¾ английского слова). Это очень грубая, но показательная оценка.

Этап оценкиПояснение
СинапсыУ 20-летнего ≈ 6 × 10¹⁴ синапсов (86 млрд нейронов × 7 тыс. соединений в среднем)
Биты/синапсФизические модели (Bartol et al., 2015) дают ≈ 4–5 бит на синапс
Ёмкость6 × 10¹⁴ синапсов × 4.7 бит ≈ 2.8 × 10¹⁵ бит ≈ 3 × 10¹⁴ байт ≈ 300 ТБ (нижняя оценка) до ~2.5 ПБ (верхняя популярная оценка)
Токены1 токен ≈ 4 байта ⇒ 300 ТБ / 4 байта ≈ 75 трлн токенов (консервативно) 2.5 ПБ / 4 байта ≈ 625 трлн токенов (при «полном» использовании ёмкости)

Приближённо её можно оценить в 50 триллионов параметров — с учётом оптимизации на 90 %. Это уже в 25 раз превышает объём параметров крупнейшей на текущий момент модели ChatGPT (около 1,8 триллиона параметров).

И это — лишь память.

Если же провести линейное сравнение мозга с весами нейросети: ~100-200 миллиардов нейронов, и ~ 0,5 квадриллиона синапсов, кроме того, каждый синапс в мозге — это не просто числовой вес: он представляет собой сложнейший биофизический механизм, чьё поведение до сих пор невозможно полноценно смоделировать.

Таким образом, по своей сложности мозг эквивалентен нейросети, содержащей   10-100 квадриллионов параметров. 

Вывод

Обучение такой модели в современных условиях попросту невозможно. Для этого буквально пришлось бы собрать видеокарты мира уже произведенные и те что будут произведены в следующующие миллион лет — без преувеличений.

Искренне надеюсь, что я ошибаюсь.

Обсуждение

В данном случае мы можем оперировать контраргументом, сводящемуся к тому, что в человеческом геноме, есть такое понятие как «мусорная ДНК«, она не несет никакой функции, буквально. Это след миллионов лет эволюции и он составляет 98%. По аналогии с ДНК, сложность человеческого мозга может быть попросту «избыточной», ведь мозг слона — больше и сложнее человеческого, но интеллект ниже. 

Скорее всего, сознание, лежит на другом слое абстракции, чем простая вычислительная мощность. 

Но даже если мы возьмем эти 1-2%, такой объем видеокарт, с учетом того, что мы будет только наращивать скорость выпуска на 20% в год, мы сможем получить к 2046 году(без прорывов в технологиях вычислений). 

И да, один маленький нюанс, человечеству все еще придется объединился для этой цели.

Источники

Ссылка (год)Суть
Beren’s Blog, The Scale of the Brain vs Machine Learning (2022) (beren.io)Пошагово оценивает 86 млрд нейронов × ≈10³ синапсов ≈ 10¹⁴ параметров; крупнейшие LLM (GPT-3/4) дают лишь ~1–2 % этого масштаба.
Scientific American, Artificial Synapses Could Let Super-computers Mimic the Brain (2016) (Scientific American)Показывает, что даже специализированный «нейроморфный» железный прототип повторяет только микроскопическую долю 100 трлн синапсов мозга.
PMC review, Energy Challenges of Artificial Super-Intelligence (2023) (PMC)Сравнение: мозг ≈ 12 Вт, суперкомп с экзафлопс — десятки МВт; имитация мозга потребовала бы ~2,7 ГВт.
Neurozone blog, Energy Efficiency in Artificial and Biological Intelligence (2024) (blog.neurozone.com)Подчёркивает: мозг расходует энергии в «миллионы раз» меньше на эквивалентную вычислительную задачу, чем ИИ-центры обработки данных.
Cerebras пресс-релиз (2021) (Cerebras)Заявляет поддержку моделей до 120 трлн параметров (≈0,1 «мозга») на одном CS-2 с дисагрегированным хранилищем весов.
VentureBeat, CS-2 brain-scale chip (2021) (VentureBeat)Подчёрживает «brain-scale» позиционирование: 120 трлн параметров — в 100 раз больше GPT-3, но всё ещё < 1 % синапсов мозга.
IEEE Spectrum, AI Chip Twice as Energy Efficient as Alternatives (2022) (IEEE Spectrum)Отмечает переход к вычислениям «в памяти» для снижения энергозатрат, но всё равно далёк от 20-ваттного мозга.
Texas A&M News, AI Uses Less Energy by Mimicking the Brain (2025) (stories.tamu.edu)Сводит масштаб: дата-центры – ГВт против 20 Вт у мозга; подчёркивает ценность нейроморфных схем.
Wired, Why AI Is Not Like Your Brain — Yet(2017) (WIRED)Классический обзор различий: нейросети – «миллионы узлов» vs 100 млрд нейронов; опираются на brute-force, а не сложную биофизику синапса.
Medium, Comparing Human Brain Models and AI Parameters (2024) (Medium)Дает табличку: GPT-3 (1,75 × 10¹¹ параметров) ≈ «карликовый» по сравнению с 10¹⁴ синапсов мозга; подчёркивает спарс-природу связи в биологии.
Blue Brain Project обзор (2023) (PMC)Симуляция мышиного мозга уже требует экзафлопс-уровня; масштабирование к человеку сдвигается за 2040-е по ресурсным оценкам.