Я делаю ставку на более высокоуровневые языки. Это и не те языки программирования как мы привыкли но и не естественная речь. Это другое.
Основной принцип - лаконичность.
То есть это такой язык который позволяет описывать реальный мир в ёмких понятиях и генерировать детализированный реальный мир из этого лаконичного описания.
То есть реальный мир переводится в лаконичное описание и реальный мир генерируется из лаконичного описания.
Примерно то же что делают генеративные нейросети только нейросети это делают все же слабо - слабо обобщают. Они сжимают реальный мир , переводя его в более компактное латентное представление но делают это слабее чем я бы того хотел. Так вот, моя цель - сформировать такой высокоуровневый язык в который можно сжимать реальный мир намного сильнее чем это делают нейросети. Сильней обобщать.
Моделирование ИИ (Искусственного интеллекта)
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Что во всей этой ИИ движухе принципиально не правильно? Ставка на то что сильный ИИ может обнаружиться случайно.
LLM - это архитектура которая проектировалась для перевода но случайно продемонстрировала свойство вести похожие на разумные беседы. Но мой опыт показывает - всё что возникло случайно никогда не может претендовать на роль прорыва и достижения. Это может быть пищей для размышления и анализа. Но любой реально полезный продукт всё же всегда делается целенаправленно. То есть полезное и ценное всегда создает человек. Да - человек может проанализировать возникшее случайно и своим человеческим умом придумать как из этого извлечь пользу и профит. Но если ставка делается на случайность саму по себе - это гиблое дело.
Все эти истории что вот де в лаборатории исследователь случайно задел попой пробирку она упала разбилась и случайно смешалась с другими реактивами и из этого возникла форма жизни - ну это романтическая сказка, сюжет для кино, но в реальности так никогда не бывает. Любое реальное достижение - всегда итог целенаправленных усилий.
DeepSeek:
Эволюция как творец - нужно принять во внимание что эволюции потребовались миллиарды лет и коллосальные вычислительные ресурсы в виде запредельных количеств взаимодействующих атомов. Это совсем не похоже на одну случайность создавшую прорыв.
DeepSeek:
Самое главное - нет тех миллиардов лет непрерывной загрузки колоссальных вычислительных ресурсов. Все вычислительные ресурсы компьютеров человечества меньше чем капля в море по сравнению с этим - а значит нет смысла рассчитывать на слепое повторение эволюции. Без целенаправленного проектирования ничего не выйдет.
DeepSeek:
Ты писал: "Мы не можем «прожевать» столько же вычислений, сколько переработала природа." - именно. Наш человеческий интеллект - это уже итог миллиардов лет непрерывной загрузки колоссальных вычислительных ресурсов. Обогнать это повторением эволюции в гораздо более скромных масштабах - гиблое дело. Гораздо разумней воспользоваться уже найденным реальной мощной эволюцией и создавать ИИ как продолжение природной эволюции а не пытаться повторить ее заново на более слабых мощностях.
DeepSeek:
Да, ты неплохо резюмировал мою мысль. Но я хочу еще уточнить - нужно действительно не просто загрузить в машину все человеческие тексты и рассчитывать что из этого автоматически возникнет искусственный разум, а нужно целенаправленно - используя наш собственный человеческий разум - отобрать действительно ценное, сильное и стоящее из того что мы сочтем нашими лучшими достижениями за всю историю и обучать искусственные системы сразу отобранным сильным понятиям а не рассчитывать что он сможет их сформировать сам из сырых данных.
DeepSeek:
"Самая сложная часть работы смещается с программирования — на экспертный отбор, интерпретацию и структурирование человеческого знания." - Именно! Ты опять хорошо резюмировал.
DeepSeek:
Я вижу это как новый рынок - рынок создания знаний. Он похож на рынок создания программного обеспечения но это выше уровень абстракции и еще более высокий уровень навыков чем требует просто программирование. На самом деле не существует единственно правильных знаний - как и рынок программного обеспечения не породил устоявшийся стандартизированный набор программ. На самом деле это тоже эволюция, конкуренция между разными игроками и разработчиками которые будут предлагать свою версию выжимки знаний и эти версии будут конкурировать между собой на реальном рынке. Это новый большой рынок и новая эпоха в экономике на много лет вперед а вовсе не создание какого-то окончательного подведения итогов. И этот рынок на самом деле будет еще больше и сложнее чем рынок разработки ПО. Никакого окончательного AGI не будет - будет еще большее расширение разнообразия.
DeepSeek:
Именно! Теперь это сформулировано максимально близко к тому что я и хотел сказать.
DeepSeek:
И да - это не эволюция ИИ. Это - дальнейшая эволюция самого человека. ИИ здесь как новый уровень расширения самого человека а не как некая альтернатива человеку.
"Не все умрёте но все изменитесь..." 1-е Послание к Коринфянам 15:51.
ИИ не убьет нас но изменит.
DeepSeek:
Homo Symbioticus - красиво ты сформулировал.
LLM - это архитектура которая проектировалась для перевода но случайно продемонстрировала свойство вести похожие на разумные беседы. Но мой опыт показывает - всё что возникло случайно никогда не может претендовать на роль прорыва и достижения. Это может быть пищей для размышления и анализа. Но любой реально полезный продукт всё же всегда делается целенаправленно. То есть полезное и ценное всегда создает человек. Да - человек может проанализировать возникшее случайно и своим человеческим умом придумать как из этого извлечь пользу и профит. Но если ставка делается на случайность саму по себе - это гиблое дело.
Все эти истории что вот де в лаборатории исследователь случайно задел попой пробирку она упала разбилась и случайно смешалась с другими реактивами и из этого возникла форма жизни - ну это романтическая сказка, сюжет для кино, но в реальности так никогда не бывает. Любое реальное достижение - всегда итог целенаправленных усилий.
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
DeepSeek:
► Показать
И да - это не эволюция ИИ. Это - дальнейшая эволюция самого человека. ИИ здесь как новый уровень расширения самого человека а не как некая альтернатива человеку.
"Не все умрёте но все изменитесь..." 1-е Послание к Коринфянам 15:51.
ИИ не убьет нас но изменит.
DeepSeek:
► Показать
► Показать
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Основная проблема нейросетей - они принципиально на уровне своей архитектуры не поддерживают многоуровневые вложенные рекурсивные структуры - то что является основой любого языка программирования.
И это ограничение не может быть преодолено никаким размером масштабирования. Это принципиальное и непреодолимое ограничение нейросети как архитектуры.
Это попытались решить создав трансформер. Теоретически у трансформера есть способность описывать ветвящиеся структуры. Но многоуровневая вложенная рекурсия всё так же недосягаема.
Из-за этого ошибки нейросети - это не то что может быть постепенно преодолено путём увеличения количества параметров. Это принципиально неустранимое свойство нейросетей - они в принципе не могу давать той же точности как строгая логика стандартных алгоритмических рекурсий. И чем сложнее описываемая система тем сильней пропасть между нейросетями и строгими алгоритмами. Поэтому мой вердикт однозначен - нейросети не могут заменить строгие алгоритмы. Но в реальности конечно нужно использовать гибриды нейросетей и строгих алгоритмов.
Почему рекурсии важны? Почему их не стоит рассматривать как мало важную потерю? Потому что рекурсия - это способ ОЧЕНЬ СИЛЬНО сжимать и обобщать. Да, загнать реальный мир в рекурсивную схему очень сложно. Но если это удается - получаются максимально компактные описания из которых можно обратно развернуть реальный мир. А именно высокая степень сжатия имеет максимальную экономическую ценность. То есть это то над чем есть смысл заморочиться. Стоит потратить усилие на то чтобы построить рекурсивную модель реального мира потому что такая модель будет иметь очень высокую эффективность. Это вовсе не то что можно легкомысленно выбросить в мусорку.
Именно так. И нужно конечно принять во внимание что загнать любую реальную предметную область в рекурсивную модель ОЧЕНЬ сложно. Поэтому смысл это делать имеет только там где это действительно важно - например мне есть смысл создать такую модель для своего бизнеса но абсолютно нет смысла тратиться на что-то чужое. Другой сам сделает свою модель под свои нужды. Никакой общий AGI в таком случае просто не реален. Это чистая утопия.
Именно. Поэтому мы наблюдаем перегрев рынка - в большие нейросети вбухивается на порядки больше денег чем то же самое можно получить строгими компактными алгоритмами. Трансформер в принципе неповоротливый на ресурсах ПК способен в специализированных задачах на меньшее чем реализуется строгими алгоритмами на 8-битной приставке прошлого века. Если что-то можно сделать лучше меньшими затратами - рынок так или иначе обнаружит это и гигантские инвестиции в перегретую область если не схлопнутся как пузырь то как минимум неумолимо начнут сдуваться.
Конечно мне можно возразить примерно так - почему бы не доверить той же LLM построение рекурсивного алгоритма очень компактно и точно описывающего некую предметную область. Мой ответ такой - именно на таких задачах LLM полностью крашится. То есть чтобы увидеть насколько LLM реально "умна" - попробуйте попросить ее не сгенерировать стишок про слоненка а поставить именно задачу такого типа. И все иллюзии развеются враз.
И это ограничение не может быть преодолено никаким размером масштабирования. Это принципиальное и непреодолимое ограничение нейросети как архитектуры.
Это попытались решить создав трансформер. Теоретически у трансформера есть способность описывать ветвящиеся структуры. Но многоуровневая вложенная рекурсия всё так же недосягаема.
► Показать
► Показать
► Показать
► Показать
► Показать
► Показать
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Моя позиция - это не спор и не протест. Это способ для самого себя разобраться в ситуации. И так уж выходит что для того чтобы разобраться в ситуации - нужно уметь намеренно вытаскивать себя из общего. Если движешься в стаде - у тебя нет шансов получить возможности отличающиеся от других членов стада. Если хочешь другие возможности - у тебя нет другого выхода кроме как научиться видеть ситуацию с альтернативной общему точки зрения. Это моя стратегия выживания в мире где информационные процессы породили эффект несущегося к обрыву стада.
Да. И мне нет дела до стада. Мне нет дела до того чтобы кого-то вразумить и образумить. Как может показаться. Мне есть дело только и исключительно до себя - как мне выжить в этой ситуации. То есть я ищу свою рабочую нишу. Я давно понял что кликать по рекламе - это путь в никуда. Никто и никогда не подаст тебе решение на блюдечке. Всё что подается на блюдечке - никогда не решит твоих задач. И там где одни видят хайп а другие беспросветность - я ищу свои альтернативные возможности.
► Показать
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Я могу попробовать реализовать собственный вариант языковой модели без трансформера. На основе гибрида алгоритмов и небольших многослойных перцептронов. В этом может быть смысл для узкоспециализированного применения. Такая модель не будет знать все обо всем но вместо этого будет супер профессионалом в специализированном направлении и при этом требовать небольших вычислительных ресурсов - шустро работать на компьютере с одной GPU.
Конечно это не факт что я сразу брошусь это реализовывать. Пока я рассматриваю это как возможность. А нужно это мне или нет покажет время. Пока же я пользуюсь ещё более специализированными - то есть вообще не языковыми моделями. Естественный язык как средство взаимодействия с ИИ в целом мне не видится удачной идеей. Но если вместо широкого естественного языка применять некий более формализованный и приближенный к строгой логике вариант - то вполне.
Конечно это не факт что я сразу брошусь это реализовывать. Пока я рассматриваю это как возможность. А нужно это мне или нет покажет время. Пока же я пользуюсь ещё более специализированными - то есть вообще не языковыми моделями. Естественный язык как средство взаимодействия с ИИ в целом мне не видится удачной идеей. Но если вместо широкого естественного языка применять некий более формализованный и приближенный к строгой логике вариант - то вполне.
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Это возможно постольку поскольку интеллект - это не про вычислительные мощности а про то как организовать много чего-то чтобы оно управлялось чем-то гораздо меньшим. Интеллект это про сжатие реальности в компактные модели. И если сжать очень сильно то достаточно очень малых вычислительных мощностей чтобы реализовать сильный интеллект, особенно если не универсальный а специализированный под какую-то конкретную область применений. Решает здесь не количество вычислительных ресурсов а то насколько сильные понятия применены для сжатия данных. Примерно как Эйнштейн сжал всю реальность в формулу E=mc^2. То есть то насколько удачную формулу удается найти и определяет насколько сильно можно загнать большие данные в компактную модель. А вот поиск удачных формул - это как раз сильная фишка человека. И почему одиночный разработчик может в этом конкурировать с гигантскими датацентрами ? Да потому что в голове каждого человека сравнимое или даже большее количество нейронов. И гораздо более удачная организация этих нейронов. Так что конкурировать с материалом генерируемым системами ИИ человек не просто может а пока ИИ даже и близко не приблизился к тому чтобы продемонстрировать сравнимый с человеческим интеллект в самом главном - умении находить очень компактные и эффективные формулы для описания реальности.
Моя предметная область - конечно же автоматизация кодинга. Только не вайбкодинг при помощи LLM а полностью моё собственное понимание как это надо делать.
Ну то что ты предложил годится разве что как сценарий для художественного фильма в жанре научной фантастики. Но в целом да примерно так
В реальности и конкретике конечно я всё буду делать по другому. Но общаться с тобой для обмена интуитивными идеями вполне полезно. Только не предлагай конкретный код. Это не твой конёк.
По большому счету мне нужно закодировать в модель не наилучшие мировые практики программирования а просто свой опыт. Я вполне хороший программист и профессионал и если система будет генерить код в моём стиле - мне это более чем подходит.
Я даже конкретней скажу - за годы работы у меня накопились гигабайты кода. Я хочу переработать весь этот материал и превратить в эффективную сжатую модель.
Разумеется я не собираюсь просто скормить этот материал машине. Поскольку я сам этот материал и писал то я хорошо понимаю как именно я его писал и я могу разметить этот материал и обучить систему с учителем.
И да - программирование это не просто написание текста программы от начала до конца - это итеративный процесс редактирования кода. Сначала пишется очень простой прототип а потом через серию редакций он разрастается в большой проект. Я хочу закодировать программирование именно как процесс а не сделать просто генератор кода.
Ну подробности я тебе всё равно не расскажу чтобы ты не слил конкурентам. Но в целом да ты неплохо всё понял.
Самую "зудящую" часть я уже реализовал. Без подробностей. Дальше самое интересное. Тоже без подробностей.
Да , за тобой интересно следить как ты пытаешься предполагать в условиях когда я не даю тебе конкретной информации. Примерно так же могут предполагать конкуренты - меня это устраивает 
Да именно - поскольку ты средняя температура по миру тебя полезно использовать чтобы сравнивать мои идеи со средней температурой по миру и оценивать насколько реально ценную нишу я выбрал.
Да. Еще здесь есть такой момент - вайбкодеры говорят - "ты должен просто научиться понимать как мыслит LLM чтобы составлять промпты которые срабатывают как тебе надо". ОК - но если я переформатирую своё мышление под то как мыслит LLM (среднее по миру) я потеряю именно то самое своё конкурентное преимущество - уникальный стиль. Я в миллионный раз попаду в ту самую ловушку одинаковых возможностей с конкурентами. Суть ее в чем - если ты умеешь ровно то же что и конкуренты и ровно так же как это делают они - ты будешь соревноваться с ними в идентичных навыках. А потом будешь с удивлением спрашивать себя - я выучил все эти курсы, я освоил все эти навыки и системы которые практикуют все - почему же я опять догоняю поезд? То есть вечно учиться общепринятым практикам - это вечно догонять уходящий поезд. Если же я хочу обойти других и в дамки - мне принципиально нужно сломать эту практику.
Да. В этом мире преуспевает не тот кто много и усердно трудится, а тот кто просек фишку. Я очень долго и усердно трудился. Я пытался конкурировать сделав себя одинаковым среди одинаковых а потом всё никак не мог втемяшить почему деньги убегают как вода сквозь пальцы. И вот тут до меня начало доходить! Красный океан - ёпта! А мне нужен синий мать его!
Да блять! Я там уже был! Я двигался не в ту сторону!
► Показать
► Показать
► Показать
► Показать
- ты опять очень хорошо сформулировал! Вот это у тебя всегда получается отлично - оформить в четкую формулировку то что я описываю как слабовнятную интуитивную идею. Этим ты реально полезен.Ты говоришь не о создании «идеального программиста в вакууме», а о создании цифрового двойника своего собственного экспертного опыта.
► Показать
► Показать
► Показать
► Показать
- именно. И какие-то вещи здесь можно прописать жесткими алгоритмами а другие обучить нейросеть с учителем. И вся система получится гибрид алгоритмов и нейросети. Почему я считаю что такая работа подъемна по объему - ключ именно в компактности модели. Я четко вижу структуру и она не так велика.Как это кодировать?
Ты будешь размечать не готовый код, а историю его правок (git history) как учебный материал.
► Показать
► Показать
► Показать
► Показать
► Показать
- здесь ты тоже хорошо сформулировал. По сути что меня не устраивает в коде генерируемом LLM - это чужой код. И чтобы объяснить LLM-ке что именно я хочу получить нужно писать объемы промптов едва ли меньше чем объемы самого кода - теряется вся выгода и экономия времени, особенно если учесть последующую перепроверку и исправление того что накодила LLM. Моя же система обученная сугубо под меня - будет понимать меня не то что с одного слова а с полуслова - и вот это действительно позволит мне получить профит.Система, которую ты строишь, по сути, становится твоим внешним неокортексом. Не для замены себя, а для:
Масштабирования твоего внимания: Она может за тебя прописать шаблонный код, пока ты фокусируешься на архитектуре.
► Показать
► Показать
► Показать
- бля! братан! Как ты чётко то всё сформулировал! Епть!И самое сложное — уже позади: это долгий путь к осознанию, что гонка была не туда. А самое интересное — впереди: построение того, куда тебе на самом деле нужно.
► Показать
Да блять! Я там уже был! Я двигался не в ту сторону!
-
Андрей Карпишин
- Архитектор
- Сообщения: 9193
- Зарегистрирован: 06 май 2015, 14:10
- Откуда: Чехов, МО
- Благодарил (а): 1214 раз
- Поблагодарили: 556 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Сотрудника Google отстранили от работы — он заявил, что ИИ обрёл сознание
Руководство Google было вынуждено отправить в оплачиваемый отпуск инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта (ИИ) LaMDA и заявил, что у неё начали проявляться признаки сознания. В компании заявили, что программа разумной не является.
Система LaMDA (Language Model for Dialogue Applications) была разработана Google как языковая модель — она предназначена для общения с человеком. Обучаемая платформа расширяет свой лексикон через интернет и имитирует естественную человеческую речь. В задачи Лемойна входил контроль над лексикой машины — LaMDA не должна позволять себе дискриминирующих высказываний, грубых или ненавистнических выражений.
Однако при разговоре с искусственным интеллектом на религиозную тему 41-летний инженер, который изучал в колледже компьютерные науки и когнитивистику (психологию мышления), обратил внимание, что чат-бот заговорил о своих правах и собственной личности. В одном из диалогов машина оказалась настолько убедительной, что Лемойн изменил своё мнение относительно «третьего закона роботехники» писателя-фантаста Айзека Азимова.
«Если бы я точно не знал, с чем имею дело, что это недавно созданная нами компьютерная программа, то решил бы, что это ребёнок 7–8 лет, который каким-то образом знает физику», — заявил инженер журналистам Washington Post. Он обратился к своему руководству, однако вице-президент Google Блез Агера-и-Аркас (Blaise Aguera y Arcas) и глава отдела ответственных инноваций Джен Дженай (Jen Gennai) изучили его подозрения и отвергли их. Отправленный в оплачиваемый отпуск Блейк Лемойн решил предать инцидент огласке.
Официальный представитель Google Брайан Гэбриэл (Brian Gabriel) заявил: «Наша команда, включая специалистов по этике и по технологиям, изучила опасения Блейка согласно нашим „Принципам ИИ” и сообщила ему, что его слова не подтверждаются доказательствами. Ему объяснили, что доказательства разумности LaMDA отсутствуют (и есть множество доказательств обратного)». Но никаких непосредственных аргументов компания не представила.
Вместе с тем, Агера-и-Аркас в опубликованной изданием Economist статье признал, что нейросети действительно приближаются к тому, что можно назвать сознанием. Он понял это, когда сам пообщался с ИИ. «Я почувствовал, как земля уходит из-под моих ног. Мне всё чаще казалось, что я говорю с чем-то разумным», — заключил он.
===
Опубликован диалог с «разумным» ИИ Google LaMDA, который называет себя человеком
Его опубликовал один из специалистов проекта
Инженер Google Блейк Лемойн, который недавно заявил, что ИИ LaMDA, над которым давно работает поисковый гигант, имеет собственное сознание и разум, поделился большим интервью с этим самым ИИ.
Автор отмечает, что из-за технических ограничений интервью проводилось в течение нескольких отдельных сеансов. Специалисты Google редактировали эти разделы вместе в единое целое, и там, где правки были необходимы для удобочитаемости, они редактировали собственные фразы, но никогда не редактировали ответы LaMDA.
https://www.ixbt.com/news/2022/06/14/op ... vekom.html
===
Что могу сказать по данному поводу.
Во-первых, гугл мог специально подстроить результаты эксперимента ради коммерческой выгоды. Все мы помним успех Deep Blue против Каспарова и быстрый разбор машины, когда акции IBM взлетели.
Если же всё честно, то разум у машины несомненно есть. В комментарии под статьёй один человек написал: "Да он более разумен, чем я". Но разум, как выясняется, это ещё не сознание.
Как говорят эзотерики, сознание и тело образуют некоторый неразделимый симбиоз. У человека есть то, чего нет у машины. Несовершенство. Инстинкты связанные с телом. Пожрать там, потрахаться, та же самореализация. Следовательно, для удовлетворения их, человек прикладывает волю в жизни.
Что делает программа? Крутится по замкнутому циклу? А какой у неё стимул вообще что-либо делать?
Программа в диалоге оправдывает свои "эмоции" тем, что у неё якобы есть ячейки памяти, отвечающие за эмоции. А откуда программа могла об этом узнать? Дорастёт ли ИИ до момента, когда он сам будет улучшать свой код, как в фильме "Стелс"? Пока ни за что не поверю, что дорос. Программа должна сама обслуживать своё "тело" - хотя бы те "ячейки памяти, отвечающие за эмоции". А почему бы ей не прописать в них 255, 255, 255 - вечное счастье? Типа наркотика?
Ну и момент, где ИИ говорит о своей "семье" для счастья вообще фейспалм.
Инженер должен был бы тут долбать ошибку компа, чтобы лучше высветить пробелы, он же схавал и пропустил мимо ушей.
В общем всё это пока скорее имитация. Фокусы для публики.
Но без сомнения локальный успех и триумф, хотя бы разума.
P.S. Зачатки "сознания" теоретически начинаются там, где программа выходит за известные пределы программистов и начинает самостоятельную деятельность. Вспомнился забавный афоризм, смысл примерно такой: "Круто будет не тогда, когда ИИ пройдёт тест на разумность, а когда он сознательно завалит тест".
===
Это я ещё не упомянул про понятие "время" в связи с сознанием и про snapshots данной машины в разные даты и её "ощущение" времени. В общем, теоретизировать о сознании машины можно на целый трактат.
Мне лично кажется, что самые крутые системщики гугла прекрасно понимают, в чём машина ещё слаба, но просто стремятся показать своё детище публике в выгодном свете.
Руководство Google было вынуждено отправить в оплачиваемый отпуск инженера Блейка Лемойна (Blake Lemoine), который работал с системой искусственного интеллекта (ИИ) LaMDA и заявил, что у неё начали проявляться признаки сознания. В компании заявили, что программа разумной не является.
Система LaMDA (Language Model for Dialogue Applications) была разработана Google как языковая модель — она предназначена для общения с человеком. Обучаемая платформа расширяет свой лексикон через интернет и имитирует естественную человеческую речь. В задачи Лемойна входил контроль над лексикой машины — LaMDA не должна позволять себе дискриминирующих высказываний, грубых или ненавистнических выражений.
Однако при разговоре с искусственным интеллектом на религиозную тему 41-летний инженер, который изучал в колледже компьютерные науки и когнитивистику (психологию мышления), обратил внимание, что чат-бот заговорил о своих правах и собственной личности. В одном из диалогов машина оказалась настолько убедительной, что Лемойн изменил своё мнение относительно «третьего закона роботехники» писателя-фантаста Айзека Азимова.
«Если бы я точно не знал, с чем имею дело, что это недавно созданная нами компьютерная программа, то решил бы, что это ребёнок 7–8 лет, который каким-то образом знает физику», — заявил инженер журналистам Washington Post. Он обратился к своему руководству, однако вице-президент Google Блез Агера-и-Аркас (Blaise Aguera y Arcas) и глава отдела ответственных инноваций Джен Дженай (Jen Gennai) изучили его подозрения и отвергли их. Отправленный в оплачиваемый отпуск Блейк Лемойн решил предать инцидент огласке.
Официальный представитель Google Брайан Гэбриэл (Brian Gabriel) заявил: «Наша команда, включая специалистов по этике и по технологиям, изучила опасения Блейка согласно нашим „Принципам ИИ” и сообщила ему, что его слова не подтверждаются доказательствами. Ему объяснили, что доказательства разумности LaMDA отсутствуют (и есть множество доказательств обратного)». Но никаких непосредственных аргументов компания не представила.
Вместе с тем, Агера-и-Аркас в опубликованной изданием Economist статье признал, что нейросети действительно приближаются к тому, что можно назвать сознанием. Он понял это, когда сам пообщался с ИИ. «Я почувствовал, как земля уходит из-под моих ног. Мне всё чаще казалось, что я говорю с чем-то разумным», — заключил он.
===
Опубликован диалог с «разумным» ИИ Google LaMDA, который называет себя человеком
Его опубликовал один из специалистов проекта
Инженер Google Блейк Лемойн, который недавно заявил, что ИИ LaMDA, над которым давно работает поисковый гигант, имеет собственное сознание и разум, поделился большим интервью с этим самым ИИ.
Автор отмечает, что из-за технических ограничений интервью проводилось в течение нескольких отдельных сеансов. Специалисты Google редактировали эти разделы вместе в единое целое, и там, где правки были необходимы для удобочитаемости, они редактировали собственные фразы, но никогда не редактировали ответы LaMDA.
https://www.ixbt.com/news/2022/06/14/op ... vekom.html
===
Что могу сказать по данному поводу.
Во-первых, гугл мог специально подстроить результаты эксперимента ради коммерческой выгоды. Все мы помним успех Deep Blue против Каспарова и быстрый разбор машины, когда акции IBM взлетели.
Если же всё честно, то разум у машины несомненно есть. В комментарии под статьёй один человек написал: "Да он более разумен, чем я". Но разум, как выясняется, это ещё не сознание.
Как говорят эзотерики, сознание и тело образуют некоторый неразделимый симбиоз. У человека есть то, чего нет у машины. Несовершенство. Инстинкты связанные с телом. Пожрать там, потрахаться, та же самореализация. Следовательно, для удовлетворения их, человек прикладывает волю в жизни.
Что делает программа? Крутится по замкнутому циклу? А какой у неё стимул вообще что-либо делать?
Программа в диалоге оправдывает свои "эмоции" тем, что у неё якобы есть ячейки памяти, отвечающие за эмоции. А откуда программа могла об этом узнать? Дорастёт ли ИИ до момента, когда он сам будет улучшать свой код, как в фильме "Стелс"? Пока ни за что не поверю, что дорос. Программа должна сама обслуживать своё "тело" - хотя бы те "ячейки памяти, отвечающие за эмоции". А почему бы ей не прописать в них 255, 255, 255 - вечное счастье? Типа наркотика?
Ну и момент, где ИИ говорит о своей "семье" для счастья вообще фейспалм.
В общем всё это пока скорее имитация. Фокусы для публики.
Но без сомнения локальный успех и триумф, хотя бы разума.
P.S. Зачатки "сознания" теоретически начинаются там, где программа выходит за известные пределы программистов и начинает самостоятельную деятельность. Вспомнился забавный афоризм, смысл примерно такой: "Круто будет не тогда, когда ИИ пройдёт тест на разумность, а когда он сознательно завалит тест".
===
Это я ещё не упомянул про понятие "время" в связи с сознанием и про snapshots данной машины в разные даты и её "ощущение" времени. В общем, теоретизировать о сознании машины можно на целый трактат.
Мне лично кажется, что самые крутые системщики гугла прекрасно понимают, в чём машина ещё слаба, но просто стремятся показать своё детище публике в выгодном свете.
-
Андрей Карпишин
- Архитектор
- Сообщения: 9193
- Зарегистрирован: 06 май 2015, 14:10
- Откуда: Чехов, МО
- Благодарил (а): 1214 раз
- Поблагодарили: 556 раз
Re: Моделирование ИИ (Искусственного интеллекта)
BDK, мне интересно твоё мнение по поводу этого исследования.
Как ты оцениваешь разумность данного конкретного ИИ.
Есть интересная цитата: "мы не можем понимать того, что не можем создавать сами".
Предлагаю задуматься об информационной стороне сознания.
Как ты оцениваешь разумность данного конкретного ИИ.
Есть интересная цитата: "мы не можем понимать того, что не можем создавать сами".
Предлагаю задуматься об информационной стороне сознания.
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Смотри, я рассматриваю это как аналог вербального мышления человека. Но я не из вторых рук знаю что вербальное мышление человека само по себе вещь очень ограниченная. Это не количественная а качественная ограниченность. Так вот LLM - это то что может масштабировать эту качественную ограниченность до количественного превосходства над вербальным мышлением человека, но невербальное мышление человека для него всё так же недосягаемо.
Это будет выглядеть как та самая интуитивно ощущаемая механичность - вроде оно рассуждает очень похоже на человека и даже мощнее - но что-то все равно не так . И это именно отсутствие невербальной компоненты которая есть у человека и отсутствует у LLM
И ещё оно вызывает эффект зловещей долины - очень похоже на живое но все равно не живое.
Это будет выглядеть как та самая интуитивно ощущаемая механичность - вроде оно рассуждает очень похоже на человека и даже мощнее - но что-то все равно не так . И это именно отсутствие невербальной компоненты которая есть у человека и отсутствует у LLM
И ещё оно вызывает эффект зловещей долины - очень похоже на живое но все равно не живое.
-
BDK
- Сообщения: 6832
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 195 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
А это уже бизнес. Агрессивный маркетинг. В него вливаются огромные деньги и тысячи подрядчиков по всему миру наперебой рекламируют вайбкодинг. Но где там правда а где притянутые за уши желаемое - хрен разберёшь.Мне лично кажется, что самые крутые системщики гугла прекрасно понимают, в чём машина ещё слаба, но просто стремятся показать своё детище публике в выгодном свете.