Искусственный интеллект — за горами
Оглавление
Если сравнивать современные нейронные сети с человеческим мозгом, можно прийти к выводу: даже самые крупные нейросети на сегодняшний день уступают мозгу человека по числу параметров — как минимум в тысячи раз, а вычислительная мощность для обучения сопоставимого масштаба будет доступна только через десятки лет.
Приближение
Рассмотрим память человека за 20 лет как веса и параметры модели.
Сведение объёма биологической памяти к эквиваленту текстовых-LLM-токенов (≈ 4 байта ≈ ¾ английского слова). Это очень грубая, но показательная оценка.
Этап оценки | Пояснение |
---|---|
Синапсы | У 20-летнего ≈ 6 × 10¹⁴ синапсов (86 млрд нейронов × 7 тыс. соединений в среднем) |
Биты/синапс | Физические модели (Bartol et al., 2015) дают ≈ 4–5 бит на синапс |
Ёмкость | 6 × 10¹⁴ синапсов × 4.7 бит ≈ 2.8 × 10¹⁵ бит ≈ 3 × 10¹⁴ байт ≈ 300 ТБ (нижняя оценка) до ~2.5 ПБ (верхняя популярная оценка) |
Токены | 1 токен ≈ 4 байта ⇒ 300 ТБ / 4 байта ≈ 75 трлн токенов (консервативно) 2.5 ПБ / 4 байта ≈ 625 трлн токенов (при «полном» использовании ёмкости) |
Приближённо её можно оценить в 50 триллионов параметров — с учётом оптимизации на 90 %. Это уже в 25 раз превышает объём параметров крупнейшей на текущий момент модели ChatGPT (около 1,8 триллиона параметров).
И это — лишь память.
Если же провести линейное сравнение мозга с весами нейросети: ~100-200 миллиардов нейронов, и ~ 0,5 квадриллиона синапсов, кроме того, каждый синапс в мозге — это не просто числовой вес: он представляет собой сложнейший биофизический механизм, чьё поведение до сих пор невозможно полноценно смоделировать.
Таким образом, по своей сложности мозг эквивалентен нейросети, содержащей 10-100 квадриллионов параметров.
Вывод
Обучение такой модели в современных условиях попросту невозможно. Для этого буквально пришлось бы собрать видеокарты мира уже произведенные и те что будут произведены в следующующие миллион лет — без преувеличений.
Искренне надеюсь, что я ошибаюсь.
Обсуждение
В данном случае мы можем оперировать контраргументом, сводящемуся к тому, что в человеческом геноме, есть такое понятие как «мусорная ДНК«, она не несет никакой функции, буквально. Это след миллионов лет эволюции и он составляет 98%. По аналогии с ДНК, сложность человеческого мозга может быть попросту «избыточной», ведь мозг слона — больше и сложнее человеческого, но интеллект ниже.
Скорее всего, сознание, лежит на другом слое абстракции, чем простая вычислительная мощность.
Но даже если мы возьмем эти 1-2%, такой объем видеокарт, с учетом того, что мы будет только наращивать скорость выпуска на 20% в год, мы сможем получить к 2046 году(без прорывов в технологиях вычислений).
И да, один маленький нюанс, человечеству все еще придется объединился для этой цели.
Просто наращивать мощьность точно не выйдет. Нужны фундаментальные открытия.
Источники
Ссылка (год) | Суть |
---|---|
Beren’s Blog, The Scale of the Brain vs Machine Learning (2022) (beren.io) | Пошагово оценивает 86 млрд нейронов × ≈10³ синапсов ≈ 10¹⁴ параметров; крупнейшие LLM (GPT-3/4) дают лишь ~1–2 % этого масштаба. |
Scientific American, Artificial Synapses Could Let Super-computers Mimic the Brain (2016) (Scientific American) | Показывает, что даже специализированный «нейроморфный» железный прототип повторяет только микроскопическую долю 100 трлн синапсов мозга. |
PMC review, Energy Challenges of Artificial Super-Intelligence (2023) (PMC) | Сравнение: мозг ≈ 12 Вт, суперкомп с экзафлопс — десятки МВт; имитация мозга потребовала бы ~2,7 ГВт. |
Neurozone blog, Energy Efficiency in Artificial and Biological Intelligence (2024) (blog.neurozone.com) | Подчёркивает: мозг расходует энергии в «миллионы раз» меньше на эквивалентную вычислительную задачу, чем ИИ-центры обработки данных. |
Cerebras пресс-релиз (2021) (Cerebras) | Заявляет поддержку моделей до 120 трлн параметров (≈0,1 «мозга») на одном CS-2 с дисагрегированным хранилищем весов. |
VentureBeat, CS-2 brain-scale chip (2021) (VentureBeat) | Подчёрживает «brain-scale» позиционирование: 120 трлн параметров — в 100 раз больше GPT-3, но всё ещё < 1 % синапсов мозга. |
IEEE Spectrum, AI Chip Twice as Energy Efficient as Alternatives (2022) (IEEE Spectrum) | Отмечает переход к вычислениям «в памяти» для снижения энергозатрат, но всё равно далёк от 20-ваттного мозга. |
Texas A&M News, AI Uses Less Energy by Mimicking the Brain (2025) (stories.tamu.edu) | Сводит масштаб: дата-центры – ГВт против 20 Вт у мозга; подчёркивает ценность нейроморфных схем. |
Wired, Why AI Is Not Like Your Brain — Yet(2017) (WIRED) | Классический обзор различий: нейросети – «миллионы узлов» vs 100 млрд нейронов; опираются на brute-force, а не сложную биофизику синапса. |
Medium, Comparing Human Brain Models and AI Parameters (2024) (Medium) | Дает табличку: GPT-3 (1,75 × 10¹¹ параметров) ≈ «карликовый» по сравнению с 10¹⁴ синапсов мозга; подчёркивает спарс-природу связи в биологии. |
Blue Brain Project обзор (2023) (PMC) | Симуляция мышиного мозга уже требует экзафлопс-уровня; масштабирование к человеку сдвигается за 2040-е по ресурсным оценкам. |