GPT4 отупел, заявляют американские учёные
251
31
Пользователь
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.
Исследовательская группа разработала задачи для измерения качественных аспектов работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:
- Решение математических задач
- Ответы на деликатные вопросы
- Генерация кода
- Визуальное восприятие
Сравнительный результат представлен в диаграмме:
- В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
- За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
- Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.
Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.
Ученые собираются провести более детальное исследование вопроса".
Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.
Пользователь
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
ChelovekZzZ сказал(а):↑это gpt4 еще с дотерами не разговаривал
Нажмите, чтобы раскрыть...Тогда бы он сразу поумнел. Дотеры отличаются умом и сообразительностью.
Ну посмотрим. У нас ещё есть GOOGLE BARD.
arkyy44 сказал(а):↑Ии тупой
Нажмите, чтобы раскрыть...Это не ИИ, а обычная нейросетка, как они её называют "большая языковая модель". Илон Маск сказал, что не может вот эту разработку назвать "ИИ", пока она не решит какую-то задачу, которую человек не может решить. Вот с ним я согласен.
Почему это творение называют ИИ? Потому что хомякам нужно это продать.
BolshoiDlinnuiNeobrezanui сказал(а):↑Тогда бы он сразу поумнел. Дотеры отличаются умом и сообразительностью.
Ну посмотрим. У нас ещё есть GOOGLE BARD.
Это не ИИ, а обычная нейросетка, как они её называют "большая языковая модель". Илон Маск сказал, что не может вот эту разработку назвать "ИИ", пока она не решит какую-то задачу, которую человек не может решить. Вот с ним я согласен.
Почему это творение называют ИИ? Потому что хомякам нужно это продать.
Нажмите, чтобы раскрыть...Ну ясное дело, настощий ии невозможен
Пользователь
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Makson2019 сказал(а):↑Кто-то будет модерировать утверждение типо
N число на самом деле простое (хотя на деле оно таким не является)?
Нажмите, чтобы раскрыть...Скорее всего индусы наугад клацали "ОДОБРИТЬ", чтобы не терять деньги.
Я будто ханна монтана сказал(а):↑Подкрутили параметров у публичной версии, чтобы не просили остановить обучение, а нормальную версию продолжают пилить
Нажмите, чтобы раскрыть...Вот это больше на правду похоже.
Очень даже похоже, что они обучают следующую модель, а этой ограничили мощности.
BolshoiDlinnuiNeobrezanui сказал(а):↑Скорее всего индусы наугад клацали "ОДОБРИТЬ", чтобы не терять деньги.
Вот это больше на правду похоже.
Очень даже похоже, что они обучают следующую модель, а этой ограничили мощности.
Нажмите, чтобы раскрыть...Какое еще ограничение по мощности? Ограничение по мощности вляет лишь на скорость генерации а не на веса
BolshoiDlinnuiNeobrezanui сказал(а):↑Уверен?
Нажмите, чтобы раскрыть...Ну да, просто веса отупели и неспособны дать нормальный ответ
BolshoiDlinnuiNeobrezanui сказал(а):↑Уверен?
Нажмите, чтобы раскрыть...Но в любом случае.у них есть снапшеты каждого дня и они могут легко откатить, просто исследуют там шота
Пользователь
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
-D9- сказал(а):↑каждый день юзаю гпт4 на протяжении полугода, нормально всё с ним. вот 3.5 тупенький, да.
Нажмите, чтобы раскрыть...А ты сам проверь. ЧУШЬ НЕСЕТ НЕСУСВЕТНУЮ!
arkyy44 сказал(а):↑Ну да, просто веса отупели и неспособны дать нормальный ответ
Но в любом случае.у них есть снапшеты каждого дня и они могут легко откатить, просто исследуют там шота
Нажмите, чтобы раскрыть...А в чем проблема заново перенастроить веса?
BolshoiDlinnuiNeobrezanui сказал(а):↑А ты сам проверь. ЧУШЬ НЕСЕТ НЕСУСВЕТНУЮ!
А в чем проблема заново перенастроить веса?
Нажмите, чтобы раскрыть...Мне от него цифры не надо, я его сам обучаю инфобуком, а потом генерю из инфобука информацию. Как писал отлично так и пишет, а вот 3.5 часто пишет белиберду.
Пользователь
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
Регистрация: 06.10.2015
Сообщения: 8614
Рейтинг: 3043
Нарушения: 105
-D9- сказал(а):↑Мне от него цифры не надо, я его сам обучаю инфобуком, а потом генерю из инфобука информацию. Как писал отлично так и пишет, а вот 3.5 часто пишет белиберду.
Нажмите, чтобы раскрыть...Так гугл бард может ответить на этот вопрос, а он нет.
На счет кода, то да, у GPT-4 датасет для обучения лучше был, так как гитхаб принадлежит майкрософт.
BolshoiDlinnuiNeobrezanui сказал(а):↑"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.
Исследовательская группа разработала задачи для измерения качественных аспектов работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:
- Решение математических задач
- Ответы на деликатные вопросы
- Генерация кода
- Визуальное восприятие
Сравнительный результат представлен в диаграмме:
- В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
- За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
- Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.
Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.
Ученые собираются провести более детальное исследование вопроса".
Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.
Нажмите, чтобы раскрыть...с кем поведешься от того и наберешься.
чатгпт юзают только дебилы не умеющие сами думать или гуглить.
вот он и сам становится дебилом
BolshoiDlinnuiNeobrezanui сказал(а):↑"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.
Исследовательская группа разработала задачи для измерения качественных аспектов работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:
- Решение математических задач
- Ответы на деликатные вопросы
- Генерация кода
- Визуальное восприятие
Сравнительный результат представлен в диаграмме:
- В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
- За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
- Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.
Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.
Ученые собираются провести более детальное исследование вопроса".
Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.
Нажмите, чтобы раскрыть...О боже, кому не насрать?
Тема закрыта
-
ЗаголовокОтветов ПросмотровПоследнее сообщение
-
Сообщений:0
Просмотров:0
-
Сообщений:1
Просмотров:2
-
Сообщений:3
Просмотров:3
-
ВластелинСобытий 20 May 2024 в 04:36Сообщений: 10 20 May 2024 в 04:36
Сообщений:10
Просмотров:13
-
Сообщений:2
Просмотров:3