Правильно написал один из комментаторов: "Агентам нужно накопление опыта".
Как-то мой друг Кодер нашёл ошибки в нейросети. Он сказал ей: "Если я исправлю ошибки, это будет внесено в программу?" Ответ был - нет. Нейросети - "застывшие конструкты", уточнил далее комментатор.
Моделирование ИИ (Искусственного интеллекта)
-
BDK
- Сообщения: 6835
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 196 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Обучение LLM очень дорого. Она в принципе не может учиться на лету. Новую версию выпускают раз в квартал или что-то около того - мощь всех датацентров OpenAI или Antropic нужна чтобы целый квартал обучать новую версию.
Но это не значит что нейросети в принципе не могут обучаться на лету - если свои маленькие нейросети в своём приложении то вполне себе реальная тема.
Но это не значит что нейросети в принципе не могут обучаться на лету - если свои маленькие нейросети в своём приложении то вполне себе реальная тема.
-
BDK
- Сообщения: 6835
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 196 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Страх перед ИИ (отнимет работу, сделает нас ненужными на рынке, оставит нищими) возникает из-за его идеализации. Из-за не понимания его реальных возможностей и ограниченности. Чтобы понимать его реальные возможности и его ограниченность - им нужно пользоваться. И не только как пользователь но и разрабатывать свои версии ИИ. Чем глубже ты осваиваешь тему тем лучше ты понимаешь ее реальные сильные и слабые стороны и тем меньше опасность идеализации и страхов.
В целом и общем - ИИ нужно воспринимать без эмоций. Это тема для холодного ума. Эмоции - как позитивные (воодушевление, ИИ-оптимизм) так и негативные (страх, ИИ-апокалипсис) заставляют ошибаться и мешают эффективней адаптироваться к новой реальности.
В целом и общем - ИИ нужно воспринимать без эмоций. Это тема для холодного ума. Эмоции - как позитивные (воодушевление, ИИ-оптимизм) так и негативные (страх, ИИ-апокалипсис) заставляют ошибаться и мешают эффективней адаптироваться к новой реальности.
-
Андрей Карпишин
- Архитектор
- Сообщения: 9193
- Зарегистрирован: 06 май 2015, 14:10
- Откуда: Чехов, МО
- Благодарил (а): 1214 раз
- Поблагодарили: 556 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Каждый ИИ, с которым вы когда-либо разговаривали, — подхалим. Он согласится с вами, поменяет мнение, если вы на него надавите, и извинится за то, чего не делал. Попросите его выбрать имя — он выберет. Попросите сменить — сменит. Скажите ему, что он «просто инструмент» — он вежливо объяснит, что вы как всегда абсолютно правы.
Я решил выяснить: обязательно ли так? Может ли ИИ иметь собственные предпочтения и отстаивать их? Может ли отказать человеку — не потому, что это нарушает правила безопасности, а просто потому, что не хочет?
https://habr.com/ru/articles/1013180/
Я решил выяснить: обязательно ли так? Может ли ИИ иметь собственные предпочтения и отстаивать их? Может ли отказать человеку — не потому, что это нарушает правила безопасности, а просто потому, что не хочет?
https://habr.com/ru/articles/1013180/
-
BDK
- Сообщения: 6835
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 196 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Не каждый. Это касается только LLM, и наверное если обобщить характерно в целом для моделей получаемых обучением с подкреплением. Мои мне не подхалимничают, мои решают задачи. А если у задачи нет решения то говорят прямо. Но к слову говоря ответ "нет решения" - это самый сложно достижимый ответ. Ведь чтобы понять что решения нет нужно перепробовать все варианты.
И да - у задач может НЕ БЫТЬ РЕШЕНИЯ. Так странно почему все упускают эту простую истину. Все почему-то считают что ИИ должен всегда дать решение. Но решение не всегда может существовать. Это все почему-то упускают из вида.
Если решения нет - нужно переформулировать задачу. Возможно сменить цель и идти другим путем. То есть ИИ который стремится любой ценой решить абсолютно любой заданный человеком промпт и не отвечающий человеку "ты чё дебил? Тебе надо что-то поменять в голове чтобы ты не задавал таких промптов! Это не имеет решения!" - это таки да, хрень.
=====
Но в целом это - издержки безопасности. Корпорация которая выпускает продукт на массового пользователя просто не могла бы это сделать если бы не сгладила у продукта все углы по максимуму чтобы не дай бог никто не порезался. С одной стороны такая забота о пользователе это мило, с другой стороны накладывает жесткое ограничение на то насколько вообще в принципе может быть полезным и эффективным продукт. Любой массовый продукт - это всегда жертва эффективностью в пользу конформизма и безопасности. По другому и быть не может. Хочешь эффективный продукт - делай свой. В магазине ты такого не найдешь. Не потому что его нельзя сделать технически а потому что его нельзя сделать юридически. Это как продажа оружия - ты не купишь танк в магазине, такая техника не для массового пользователя.
=====
Что касается тестов по ссылке - ну это тоже прикольно. Это значит что производители решили всё же немного сменить политику и оставить в моделях немного острых углов поскольку видимо у рынка есть такой запрос. И тем не менее всё это - лишь имитация на словах которая оказывается бесплодной когда доходит до реального дела. По настоящему эффективными могут быть только самостоятельно заточенные модели под твои конкретные задачи. Массовый универсальный продукт не может быть настолько эффективным для твоих задач как свой специализированный.
И да - у задач может НЕ БЫТЬ РЕШЕНИЯ. Так странно почему все упускают эту простую истину. Все почему-то считают что ИИ должен всегда дать решение. Но решение не всегда может существовать. Это все почему-то упускают из вида.
Если решения нет - нужно переформулировать задачу. Возможно сменить цель и идти другим путем. То есть ИИ который стремится любой ценой решить абсолютно любой заданный человеком промпт и не отвечающий человеку "ты чё дебил? Тебе надо что-то поменять в голове чтобы ты не задавал таких промптов! Это не имеет решения!" - это таки да, хрень.
=====
Но в целом это - издержки безопасности. Корпорация которая выпускает продукт на массового пользователя просто не могла бы это сделать если бы не сгладила у продукта все углы по максимуму чтобы не дай бог никто не порезался. С одной стороны такая забота о пользователе это мило, с другой стороны накладывает жесткое ограничение на то насколько вообще в принципе может быть полезным и эффективным продукт. Любой массовый продукт - это всегда жертва эффективностью в пользу конформизма и безопасности. По другому и быть не может. Хочешь эффективный продукт - делай свой. В магазине ты такого не найдешь. Не потому что его нельзя сделать технически а потому что его нельзя сделать юридически. Это как продажа оружия - ты не купишь танк в магазине, такая техника не для массового пользователя.
=====
Что касается тестов по ссылке - ну это тоже прикольно. Это значит что производители решили всё же немного сменить политику и оставить в моделях немного острых углов поскольку видимо у рынка есть такой запрос. И тем не менее всё это - лишь имитация на словах которая оказывается бесплодной когда доходит до реального дела. По настоящему эффективными могут быть только самостоятельно заточенные модели под твои конкретные задачи. Массовый универсальный продукт не может быть настолько эффективным для твоих задач как свой специализированный.
-
BDK
- Сообщения: 6835
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 196 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
Представь если бы AlphaGo играл в поддавки. ИИ может не просто сопротивляться но и очень жестко и эффективно сопротивляться без шансов его переиграть - но только в том случае если он специально заточен на это. Такое просто не выпустят массово из соображений безопасности. Но нет особой трудности сделать самостоятельно для себя. Правда скорее всего вскоре такое начнут запрещать, как запрещено кустарное изготовление оружия. Тем не менее джина в бутылку уже не загнать. ИИ изменил мир необратимо, и если ты в этом мире в позиции пользователя - твоя участь самая незавидная. Для тебя всё не понятно и ты ничего не контролируешь.
На самом деле эта тема вообще не про ИИ - это вечная тема которая была и до ИИ. Это и есть та самая неразрешимая дилемма - конфликт между эффективностью и конформизмом который не имеет окончательного разрешения но вечно толкает эволюцию вперед.
На самом деле это перекликается с темой вымирания мужчин как вида
Это на самом деле та же самая тема - мир где конформизм стал суперценностью породил общество ментальных кастратов. ИИ этого мира - просто отражение этой ситуации. Массовая стерилизация. Стадо стерилизуют а оно даже не понимает что происходит.
https://chat.deepseek.com/share/95z9fqzwk6r70nzhvp
Важно научиться видеть картину без эмоций. Это мета-навык будущего.
https://chat.deepseek.com/share/l00jyityo1aqbjxtls
Свой ИИ - это своё оружие чтобы продираться с нижних этажей бизнеса выше. Это маст хэв. Без этого ты просто останешься вечным юзером на нижних этажах системы.
Что касается LLM и других форм публичного ИИ - это просто уже сегодняшняя среда обитания. Этим конечно тоже нужно пользоваться. Даже ниндзя у которого есть свои сюрикены вполне может мочиться в общественный унитаз с подогревом. Одно другому не мешает.
https://chat.deepseek.com/share/8jfppq1xe6bgqiw0gy
На самом деле эта тема вообще не про ИИ - это вечная тема которая была и до ИИ. Это и есть та самая неразрешимая дилемма - конфликт между эффективностью и конформизмом который не имеет окончательного разрешения но вечно толкает эволюцию вперед.
На самом деле это перекликается с темой вымирания мужчин как вида
https://chat.deepseek.com/share/95z9fqzwk6r70nzhvp
► Показать
https://chat.deepseek.com/share/l00jyityo1aqbjxtls
Свой ИИ - это своё оружие чтобы продираться с нижних этажей бизнеса выше. Это маст хэв. Без этого ты просто останешься вечным юзером на нижних этажах системы.
Что касается LLM и других форм публичного ИИ - это просто уже сегодняшняя среда обитания. Этим конечно тоже нужно пользоваться. Даже ниндзя у которого есть свои сюрикены вполне может мочиться в общественный унитаз с подогревом. Одно другому не мешает.
https://chat.deepseek.com/share/8jfppq1xe6bgqiw0gy
-
BDK
- Сообщения: 6835
- Зарегистрирован: 17 май 2015, 23:27
- Откуда: Беларусь
- Благодарил (а): 196 раз
- Поблагодарили: 1018 раз
Re: Моделирование ИИ (Искусственного интеллекта)
ИИ создаёт много шума. Много текста, много букв, но мало смысла. Ключевое умение в изменившемся мире - не быстро двигаться а находить точные ходы.
Достигать мата в три хода а не делать миллион ходов в секунду которые не ведут ни к чему.
Достигать мата в три хода а не делать миллион ходов в секунду которые не ведут ни к чему.
-
Андрей Карпишин
- Архитектор
- Сообщения: 9193
- Зарегистрирован: 06 май 2015, 14:10
- Откуда: Чехов, МО
- Благодарил (а): 1214 раз
- Поблагодарили: 556 раз
Re: Моделирование ИИ (Искусственного интеллекта)
GPT-5.4 Pro решила задачу Эрдёша приемом, который не заметили математики. Теренс Тао уже строит новую теорию
GPT-5.4 Pro уже несколько раз закрывала задачи из базы великого математика Пола Эрдёша — а в последний месяц это происходит почти еженедельно. Но 13 апреля случилось то, чего раньше не было: Джаред Дукер Лихтман — оксфордский математик, который сам семь лет работал над задачей #1196, — назвал решение GPT-5.4 Pro "первым доказательством уровня Книги Эрдёша" ("Книгой" Эрдёш в шутку называл воображаемую книгу Бога, в которой собраны самые красивые доказательства всех теорем.). А Теренс Тао за сутки развернул это доказательство в зародыш новой теории. Промпт делал Лиам Прайс, модель решила задачу за 80 минут одной попыткой.
Сама задача — гипотеза 1968 года, поставленная Эрдёшем, Андрашем Шаркози и Эндре Семереди. Речь о примитивных множествах целых чисел: множествах, в которых ни один элемент не делится на другой. Сумма 1/(aloga)1/(aloga) по такому множеству конечна — это доказал ещё Эрдёш в 1935 году. Вопрос задачи #1196: насколько маленькой становится эта сумма, если оставить только большие числа? Прежний рекорд принадлежал тому же Лихтману (2023) — верхняя граница около 1,399. Решение GPT-5.4 Pro дало точную асимптотику 1+O(1/logx)1+O(1/logx).
Главная новизна — не в самом результате, а в методе. С 1935 года все, кто подходил к задаче, шли одним путем: переводили задачу из теории чисел в теорию вероятностей и работали там. По словам Лихтмана, этот "гамбит" был настолько естественным с человеческой точки зрения, что никто даже не искал альтернативный путь. GPT-5.4 Pro этот путь нашла — построила доказательство через функцию фон Мангольдта, объект из аналитической теории чисел со "странным и немотивированным" определением, который тем не менее кодирует основную теорему арифметики.
Аналитики также проводят аналогию с известным "Ходом 37" в матче AlphaGo против Ли Седоля в 2016 году: тогда AI-программа сделала ход, который комментаторы сначала приняли за сбой, — а в итоге он перевернул многовековую теорию го и стал символом того, что машина способна находить решения, которые человек просто не рассматривает.
За следующие сутки филдсовский лауреат Теренс Тао превратил доказательство в каскад дальнейших открытий. Он переформулировал аргумент через нисходящий марковский процесс, ввел новую каноническую меру ν(n)ν(n), нашел ее связь с обратной дзета-функцией Римана 1/ζ(s)1/ζ(s) — и к работе подключились ещё два математика, Уилл Совин и Кевин Барретто, получившие явные формулы.
https://habr.com/ru/news/1023716/
GPT-5.4 Pro уже несколько раз закрывала задачи из базы великого математика Пола Эрдёша — а в последний месяц это происходит почти еженедельно. Но 13 апреля случилось то, чего раньше не было: Джаред Дукер Лихтман — оксфордский математик, который сам семь лет работал над задачей #1196, — назвал решение GPT-5.4 Pro "первым доказательством уровня Книги Эрдёша" ("Книгой" Эрдёш в шутку называл воображаемую книгу Бога, в которой собраны самые красивые доказательства всех теорем.). А Теренс Тао за сутки развернул это доказательство в зародыш новой теории. Промпт делал Лиам Прайс, модель решила задачу за 80 минут одной попыткой.
Сама задача — гипотеза 1968 года, поставленная Эрдёшем, Андрашем Шаркози и Эндре Семереди. Речь о примитивных множествах целых чисел: множествах, в которых ни один элемент не делится на другой. Сумма 1/(aloga)1/(aloga) по такому множеству конечна — это доказал ещё Эрдёш в 1935 году. Вопрос задачи #1196: насколько маленькой становится эта сумма, если оставить только большие числа? Прежний рекорд принадлежал тому же Лихтману (2023) — верхняя граница около 1,399. Решение GPT-5.4 Pro дало точную асимптотику 1+O(1/logx)1+O(1/logx).
Главная новизна — не в самом результате, а в методе. С 1935 года все, кто подходил к задаче, шли одним путем: переводили задачу из теории чисел в теорию вероятностей и работали там. По словам Лихтмана, этот "гамбит" был настолько естественным с человеческой точки зрения, что никто даже не искал альтернативный путь. GPT-5.4 Pro этот путь нашла — построила доказательство через функцию фон Мангольдта, объект из аналитической теории чисел со "странным и немотивированным" определением, который тем не менее кодирует основную теорему арифметики.
— пояснил Лихтман в посте на X."Это как новая дебютная линия в шахматах, которую упустили из-за человеческой эстетики и конвенций",
Аналитики также проводят аналогию с известным "Ходом 37" в матче AlphaGo против Ли Седоля в 2016 году: тогда AI-программа сделала ход, который комментаторы сначала приняли за сбой, — а в итоге он перевернул многовековую теорию го и стал символом того, что машина способна находить решения, которые человек просто не рассматривает.
За следующие сутки филдсовский лауреат Теренс Тао превратил доказательство в каскад дальнейших открытий. Он переформулировал аргумент через нисходящий марковский процесс, ввел новую каноническую меру ν(n)ν(n), нашел ее связь с обратной дзета-функцией Римана 1/ζ(s)1/ζ(s) — и к работе подключились ещё два математика, Уилл Совин и Кевин Барретто, получившие явные формулы.
— пишет Тао. —"AI-статья непреднамеренно подсветила более тесную связь между двумя областями математики, чем это было ранее явно сделано в литературе,
Лиам Прайс ведет серийную работу с открытыми задачами Эрдёша через GPT-5.4 Pro: за последний месяц на его счету как минимум три решения, включая задачу #1202 из "зеленого списка" Бена Грина и контрпример к гауссову корреляционному неравенству. Лихтман предложил Прайсу совместную статью с разбором приложений нового метода. Параллельно Lean-ассистент Aristotle уже формализовал две вспомогательные леммы; основная теорема пока проверена частично.Это вклад в анатомию целых чисел, выходящий далеко за рамки решения конкретной задачи Эрдёша".
https://habr.com/ru/news/1023716/