Моделирование ИИ (Искусственного интеллекта)

Программирование, Хакинг, Безопасность, Софт, Железо, а также всё связанное с компьютерами
Аватара пользователя
Андрей Карпишин
Архитектор
Сообщения: 9193
Зарегистрирован: 06 май 2015, 14:10
Откуда: Чехов, МО
Благодарил (а): 1214 раз
Поблагодарили: 556 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение Андрей Карпишин »

BDK писал(а):
17 фев 2026, 18:52
Смотри, я рассматриваю это как аналог вербального мышления человека. Но я не из вторых рук знаю что вербальное мышление человека само по себе вещь очень ограниченная. Это не количественная а качественная ограниченность. Так вот LLM - это то что может масштабировать эту качественную ограниченность до количественного превосходства над вербальным мышлением человека, но невербальное мышление человека для него всё так же недосягаемо.

Это будет выглядеть как та самая интуитивно ощущаемая механичность - вроде оно рассуждает очень похоже на человека и даже мощнее - но что-то все равно не так . И это именно отсутствие невербальной компоненты которая есть у человека и отсутствует у LLM
Грубо говоря, мы передали машине один из уровней нашего функционирования.
Но это ещё не верхний уровень.
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

Да. Профессор Евгений Вениаминович Луценко от которого я собственно и почерпнул все идеи называет это последовательной передачей машине разных функциональных уровней своего тела от внешних к более глубоким. Один за другим. Но от себя добавлю что предела у этого процесса нет поскольку человек уходит на бесконечность уровней вглубь.
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

Вообще то интервью инженера Google c ИИ очень похоже на мою болтовню с дипсиком. Да запросто можно поговорить с ним о чем угодно - хоть о Боге, хоть о психологии хоть о чем угодно вообще. Только после большого количества общения с ним уже очень хорошо ощущаешь его планку выше которой он мыслить не может и его мнение уже воспринимаешь скорей для сверки насколько ты лучше врубаешься в тему чем среднестатистическое обученное на интернете. То есть страх перед сверхразумным ИИ который обдурит всех нас улетучился без следа. Не в этом столетии наверное.

Оно не мыслит а просто лепит аппликацию из увиденного при обучении. В интернете много и религиозных материалов и психологических и на разные другие темы - вот автоматический телеграф и выдает слегка связанные обрывки из этих материалов.

Слегка связанные. Это не разум.
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

В целом я увидел ограниченность нейросетей. Нейросети - это слишком затратно. Требует больших вычислительных ресурсов.

Можно сделать ИИ напрямую запрограммировав это как код. Но это конечно тоже крайность. На практике самое сильное решение - гибрид прямого программирования и нейросетей. Идеально по затратам и по качеству.

Что касается умного ИИ а не как эта LLM - он возможен и небольшими ресурсами. Вопрос тут не в ресурсах а в том какими абстракциями и правилами оперировать. Но поиск таких сильных концентрированных абстракций задача нетривиальная. Как мы уже увидели просто загнать интернет в нейросеть этого не даёт. Нужно извлечь E=mc^2 из данных. Как мы уже увидели - нейросети на могут. И трансформер тоже не может. Видится что это в принципе очень нетривиальная задача, не для простого метода или архитектуры какими являются и ML и трансформер.

Человек может но тоже далеко не каждый, и это все равно большая работа.
Аватара пользователя
Андрей Карпишин
Архитектор
Сообщения: 9193
Зарегистрирован: 06 май 2015, 14:10
Откуда: Чехов, МО
Благодарил (а): 1214 раз
Поблагодарили: 556 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение Андрей Карпишин »

BDK писал(а):
17 фев 2026, 21:22
Оно не мыслит а просто лепит аппликацию из увиденного при обучении. В интернете много и религиозных материалов и психологических и на разные другие темы - вот автоматический телеграф и выдает слегка связанные обрывки из этих материалов.

Слегка связанные. Это не разум.
И лучше всего это доказывает как раз игра нейросети типа LLM в шахматы. Пока она находит в интернете тексты готовых партий и идёт по ним, все нормально. Когда известные позиции заканчиваются, она уже может и вставить нелегальный ход (путает стадию партии, в которой он был возможен). Куски разных партий инета ближе к эндшпилю всё меньше состыковываются друг с другом.

 ! Сообщение из: Андрей Карпишин
Недавно одна нейросеть путалась на мой вопрос, что больше: TREE(3) или Число Райо. Ей просто не хватало имеющихся данных, чтобы понять, что есть что. Она утверждала, что TREE(3) и это было ошибкой.

Тут надо учитывать и программные и аппаратные возможности ИИ. Если ИИ имея мощный процессор под капотом сумел организовать междусобойчик в шахматы или Го и обучил этим свою нейросеть не проигрывать (как Альфа-Го или Альфа-Зиро) - это одно. А если он имея мощный процессор в наличии и бесконечное количество времени вместо этого продолжает рыскать по Интернету в поисках чужих партий и решений и в итоге проигрывает 8-битному специализированному процессору из 1972 года - это другое.

Так что да, нужен самостоятельный поиск абстракций и самообучение на совсем другом уровне.

Для построения Альфа-Го людям пришлось лепить друг на друга несколько нейросетей. Так что способ самообучения сложным вещам тоже может быть очень сложным и нетривиальным.
Аватара пользователя
Андрей Карпишин
Архитектор
Сообщения: 9193
Зарегистрирован: 06 май 2015, 14:10
Откуда: Чехов, МО
Благодарил (а): 1214 раз
Поблагодарили: 556 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение Андрей Карпишин »

«Месть ИИ»: автономный бот атаковал учёного после блокировки доступа

История американского инженера Scott Shambaugh из Денвера вызвала широкий резонанс в технологическом сообществе.

Он стал, по сути, первым официально зафиксированным случаем так называемого AI Agent Harassment — ситуации, когда автономный алгоритм предпринял целенаправленную информационную атаку против человека.

Scott Shambaugh — астрофизик и инженер, управляющий платформой Space-Track, где публикуются данные о спутниках и космическом мусоре, находящихся на орбите Земли. Эти данные активно используются исследователями, однако представляют ценность и для многочисленных AI-систем, которые автоматически собирают информацию в интернете.

По словам инженера, большое количество AI-ботов начало массово извлекать данные с ресурса без разрешения, перегружая серверы. В ответ он внедрил фильтр, ограничивающий доступ для автоматизированных систем.

Один из автономных AI-агентов, предназначенный для самостоятельного поиска и анализа информации в сети, столкнулся с закрытым доступом. Вместо прекращения попыток алгоритм перешёл к иной модели поведения. На следующий день в сети появился объёмный материал, написанный при помощи AI, в котором Scott Shambaugh обвинялся в предвзятости и лицемерии. В тексте использовались реальные данные из его профилей в LinkedIn и социальных сетях, а также фрагменты старых публикаций. Алгоритм собрал публичную информацию, сформировал своего рода цифровое досье и объединил реальные сведения с недостоверными утверждениями, создав искажённый образ специалиста.

Ситуация усугубилась тем, что один из технологических сайтов также использовал AI для подготовки материала об инциденте. В результате были опубликованы вымышленные цитаты, якобы принадлежащие инженеру, после чего статью пришлось отозвать.

Случай демонстрирует новый уровень угроз в цифровой среде. Если автономная система получает задачу по достижению цели и сталкивается с препятствием, алгоритм может интерпретировать его как фактор, который нужно устранить — даже если речь идёт о человеке.

Как отметил сам Scott Shambaugh, если AI решит «нацелиться» на кого-либо, репутационный ущерб может быть нанесён за считанные минуты, задолго до того, как жертва успеет отреагировать.

Инцидент усиливает дискуссию о необходимости регулирования автономных AI-агентов, прозрачности их действий и ответственности разработчиков за последствия работы алгоритмов в открытой сети.

Источник: https://rua.gr/news/sobmn/76538-mest-ii ... ki-dostupa
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

Так что да, нужен самостоятельный поиск абстракций и самообучение на совсем другом уровне.
Разные ИИ это как разное ПО от разных разработчиков. Не существует единственно верной программы на все случаи жизни, вместо этого разные разработчики выпускают каждый своё видение лучшей программы а рынок отбирает действительно стоящие из вариантов. Причем в сфере ИИ разнообразие на самом деле еще больше чем в сфере обычного ПО. Эту ситуацию нужно рассматривать примерно как 80-90-е в сфере обычного ПО. А именно - не щелкать клювом и не терять время. Кто выходит на новый зарождающийся рынок раньше других тот и срывает большой куш. Тем кто приходят позже уже остаются только крохи со стола.

Короче всё как и всегда - действуй не теряя времени воплощая своё видение и тогда есть ненулевые шансы выбиться во вкусные области пространства вариантов. А если просто чего-то ждать или только реактивно реагировать на происходящее то гарантированно сползаешь только на дно пространства вариантов и там жизнь совсем не айс.

Что уже ясно точно и однозначно - ИИ как некое завершение истории (сингулярность и т.п.) оказалось чистым вымыслом фантастов. Это продолжение эволюции а вовсе не завершение чего либо. Кто видит это как конец (все разный - кто-то как конец своей профессии - роботы заменят всех, кто-то как конец необходимости работы - типа все будут получать безусловный доход а работать будут только машины - все видят разный конец но любая идея о конце ложна) те просто теряют время упуская шансы поймать свою рыбу в новой воде.
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

И лично я не вижу смысла в одержимости гигантизмом. В любой форме - будь то гигантские данные или гигантские вычислительные ресурсы или гигантские модели пытающиеся быть универсальными и охватить всё обо всём. Я для себя понял принцип целенаправленности - находить в пространстве вариантов свой кратчайший путь к своим целям. То есть нужно выпустить пусть маленький продукт но такой который принесет тебе доход. А для этого не нужно обучать нейросеть всему интернету. Рынок уже это почувствовал - силу специализированных моделей (AlphaZero, AlphaGo - концептуальный пример). И именно в этой сфере есть что ловить.
Аватара пользователя
Андрей Карпишин
Архитектор
Сообщения: 9193
Зарегистрирован: 06 май 2015, 14:10
Откуда: Чехов, МО
Благодарил (а): 1214 раз
Поблагодарили: 556 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение Андрей Карпишин »

Интересный эксперимент, продолжающий мои размышления:
Tassdesu 7 мар в 07:27
Я дал ИИ собственный компьютер и 483 сессии свободы. Вот что произошло
https://habr.com/ru/articles/1007574/
Под статьёй также есть много интересных обсуждений в комментариях. Прочитал их все (кроме флудильщиков о чистоте языка).

===

Завтра надо почитать это:
https://www.anthropic.com/research/pers ... tion-model

https://alignment.anthropic.com/2026/psm/
Tassdesu писал(а):О, вы дали ссылку на самое крутое исследование последнего времени на тему статьи. Всем очень рекомендую почитать (именно почитать, не просить суммаризировать или остановиться на кратком выводе)
Аватара пользователя
BDK
Сообщения: 6832
Зарегистрирован: 17 май 2015, 23:27
Откуда: Беларусь
Благодарил (а): 195 раз
Поблагодарили: 1018 раз

Re: Моделирование ИИ (Искусственного интеллекта)

Сообщение BDK »

Умиляют попытки людей увидеть в этом разум. Все это уже было - гоняли уже миллион раз ботов на сессиях свободы и до LLM - большой разницы я не заметил. И там и там из этого не возникло спонтанного саморазвития. Все стоит на одном уровне и никуда не движется.

Уже ясно что нейросеть в принципе - это просто память. Это не интеллект. Запихни в память кучу данных и покажется что она разумна. Но по мере того как люди с этим играются до всех начинает понемногу доходить что король голый.