GPT4 отупел, заявляют американские учёные

avatar BolshoiDlinnuiNeobrezanui

251

31

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.

 

Исследовательская группа разработала задачи для измерения качественных аспектов  работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:

  • Решение математических задач
  • Ответы на деликатные вопросы
  • Генерация кода
  • Визуальное восприятие
Сравнительный результат представлен в диаграмме:
  • В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
  • За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
  • Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.

Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.

 

Ученые собираются провести более детальное исследование вопроса".

 

 

 

Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.PepeBruh.png 

ChelovekZzZ

Пользователь

Регистрация: 05.05.2013

Сообщения: 371

Рейтинг: 406

ChelovekZzZ

Регистрация: 05.05.2013

Сообщения: 371

Рейтинг: 406

это gpt4 еще с дотерами не разговаривал 

arkyy44

Пользователь

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

arkyy44

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

 Ии тупой

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

ChelovekZzZ сказал(а):

это gpt4 еще с дотерами не разговаривал 

Нажмите, чтобы раскрыть...

 Тогда бы он сразу поумнел. Дотеры отличаются умом и сообразительностью.PepeHappy.gif?1613920413

 

Ну посмотрим. У нас ещё есть GOOGLE BARD.

arkyy44 сказал(а):

 Ии тупой

Нажмите, чтобы раскрыть...

Это не ИИ, а обычная нейросетка, как они её называют "большая языковая модель". Илон Маск сказал, что не может вот эту разработку назвать "ИИ", пока она не решит какую-то задачу, которую человек не может решить. Вот с ним я согласен.

 

Почему это творение называют ИИ? Потому что хомякам нужно это продать.

Я будто ханна монтана

Пользователь

Регистрация: 15.03.2021

Сообщения: 34

Рейтинг: 35

Я будто ханна монтана

Регистрация: 15.03.2021

Сообщения: 34

Рейтинг: 35

Подкрутили параметров у публичной версии, чтобы не просили остановить обучение, а нормальную версию продолжают пилить pepethink.png?1592046698

 

Makson2019

Пользователь

Регистрация: 26.03.2023

Сообщения: 3546

Рейтинг: -552

Нарушения: 35

Makson2019

Регистрация: 26.03.2023

Сообщения: 3546

Рейтинг: -552

Нарушения: 35

Я думаю ему не стоит учится от ответов пользователей т.к. тогда у него каша в голове возникает. Кто-то к примеру мог ему наврать про правильные ответы к числам, задачи и т.д.

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

Makson2019 сказал(а):

Я думаю ему не стоит учится от ответов пользователей т.к. тогда у него каша в голове возникает. Кто-то к примеру мог ему наврать про правильные ответы к числам, задачи и т.д.

Нажмите, чтобы раскрыть...

Премодерация? Она вроде-бы и так там есть.

Makson2019

Пользователь

Регистрация: 26.03.2023

Сообщения: 3546

Рейтинг: -552

Нарушения: 35

Makson2019

Регистрация: 26.03.2023

Сообщения: 3546

Рейтинг: -552

Нарушения: 35

BolshoiDlinnuiNeobrezanui сказал(а):

Премодерация? Она вроде-бы и так там есть.

Нажмите, чтобы раскрыть...

Кто-то будет модерировать утверждение типо

 

N число на самом деле простое (хотя на деле оно таким не является)?

arkyy44

Пользователь

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

arkyy44

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

BolshoiDlinnuiNeobrezanui сказал(а):

 Тогда бы он сразу поумнел. Дотеры отличаются умом и сообразительностью.PepeHappy.gif?1613920413

 

Ну посмотрим. У нас ещё есть GOOGLE BARD.

 

Это не ИИ, а обычная нейросетка, как они её называют "большая языковая модель". Илон Маск сказал, что не может вот эту разработку назвать "ИИ", пока она не решит какую-то задачу, которую человек не может решить. Вот с ним я согласен.

 

Почему это творение называют ИИ? Потому что хомякам нужно это продать.

Нажмите, чтобы раскрыть...

Ну ясное дело, настощий ии невозможен

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

Makson2019 сказал(а):

Кто-то будет модерировать утверждение типо

 

N число на самом деле простое (хотя на деле оно таким не является)?

Нажмите, чтобы раскрыть...

Скорее всего индусы наугад клацали "ОДОБРИТЬ", чтобы не терять деньги.

Я будто ханна монтана сказал(а):

Подкрутили параметров у публичной версии, чтобы не просили остановить обучение, а нормальную версию продолжают пилить pepethink.png?1592046698

 

Нажмите, чтобы раскрыть...

Вот это больше на правду похоже. 

Очень даже похоже, что они обучают следующую модель, а этой ограничили мощности.

arkyy44

Пользователь

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

arkyy44

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

BolshoiDlinnuiNeobrezanui сказал(а):

Скорее всего индусы наугад клацали "ОДОБРИТЬ", чтобы не терять деньги.

 

Вот это больше на правду похоже. 

Очень даже похоже, что они обучают следующую модель, а этой ограничили мощности.

Нажмите, чтобы раскрыть...

Какое еще ограничение по мощности? Ограничение по мощности вляет лишь на скорость генерации а не на веса

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

arkyy44 сказал(а):

Какое еще ограничение по мощности? Ограничение по мощности вляет лишь на скорость генерации а не на веса

Нажмите, чтобы раскрыть...

Уверен?

arkyy44

Пользователь

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

arkyy44

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

BolshoiDlinnuiNeobrezanui сказал(а):

Уверен?

Нажмите, чтобы раскрыть...

Ну да, просто веса отупели и неспособны дать нормальный ответ

 

BolshoiDlinnuiNeobrezanui сказал(а):

Уверен?

Нажмите, чтобы раскрыть...

Но в любом случае.у них есть снапшеты каждого дня и они могут легко откатить, просто исследуют там шота

-D9-

Пользователь

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

-D9-

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

каждый день юзаю гпт4 на протяжении полугода, нормально всё с ним. вот 3.5 тупенький, да.

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

-D9- сказал(а):

каждый день юзаю гпт4 на протяжении полугода, нормально всё с ним. вот 3.5 тупенький, да.

Нажмите, чтобы раскрыть...

А ты сам проверь. ЧУШЬ НЕСЕТ НЕСУСВЕТНУЮ!

SwB8Gak.png

arkyy44 сказал(а):

Ну да, просто веса отупели и неспособны дать нормальный ответ

 

Но в любом случае.у них есть снапшеты каждого дня и они могут легко откатить, просто исследуют там шота

Нажмите, чтобы раскрыть...

А в чем проблема заново перенастроить веса?

-D9-

Пользователь

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

-D9-

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

BolshoiDlinnuiNeobrezanui сказал(а):

А ты сам проверь. ЧУШЬ НЕСЕТ НЕСУСВЕТНУЮ!

SwB8Gak.png

 

А в чем проблема заново перенастроить веса?

Нажмите, чтобы раскрыть...

Мне от него цифры не надо, я его сам обучаю инфобуком, а потом генерю из инфобука информацию. Как писал отлично так и пишет, а вот 3.5 часто пишет белиберду.

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

-D9- сказал(а):

Мне от него цифры не надо, я его сам обучаю инфобуком, а потом генерю из инфобука информацию. Как писал отлично так и пишет, а вот 3.5 часто пишет белиберду.

Нажмите, чтобы раскрыть...

Так гугл бард может ответить на этот вопрос, а он нет.

 

На счет кода, то да, у GPT-4 датасет для обучения лучше был, так как гитхаб принадлежит майкрософт.

arkyy44

Пользователь

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

arkyy44

Регистрация: 08.07.2023

Сообщения: 31

Рейтинг: 1

Нарушения: 100

BolshoiDlinnuiNeobrezanui сказал(а):

А ты сам проверь. ЧУШЬ НЕСЕТ НЕСУСВЕТНУЮ!

SwB8Gak.png

 

А в чем проблема заново перенастроить веса?

Нажмите, чтобы раскрыть...

Они не могут настраивать веса, только обучать, веса это уже побочные эффект

-D9-

Пользователь

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

-D9-

Регистрация: 03.09.2012

Сообщения: 24043

Рейтинг: 7896

BolshoiDlinnuiNeobrezanui сказал(а):

Так гугл бард может ответить на этот вопрос, а он нет.

 

На счет кода, то да, у GPT-4 датасет для обучения лучше был, так как гитхаб принадлежит майкрософт.

Нажмите, чтобы раскрыть...

Ну мы тестировали гугл, он вообще слабенький оказался для наших задач.

Podpivasik

Пользователь

Регистрация: 14.07.2018

Сообщения: 30016

Рейтинг: 11110

Нарушения: 70

Podpivasik

Регистрация: 14.07.2018

Сообщения: 30016

Рейтинг: 11110

Нарушения: 70

BolshoiDlinnuiNeobrezanui сказал(а):

"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.

 

Исследовательская группа разработала задачи для измерения качественных аспектов  работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:

  • Решение математических задач
  • Ответы на деликатные вопросы
  • Генерация кода
  • Визуальное восприятие
Сравнительный результат представлен в диаграмме:
  • В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
  • За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
  • Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.

Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.

 

Ученые собираются провести более детальное исследование вопроса".

 

 

 

Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.PepeBruh.png 

Нажмите, чтобы раскрыть...

с кем поведешься от того и наберешься. 

чатгпт юзают только дебилы не умеющие сами думать или гуглить. 

вот он и сам становится дебилом

Miyao

Пользователь

Регистрация: 28.05.2017

Сообщения: 22445

Рейтинг: 7143

Miyao

Регистрация: 28.05.2017

Сообщения: 22445

Рейтинг: 7143

ну подкрутили, а то сильно умный был

Лямбдадельта

Пользователь

Регистрация: 09.05.2021

Сообщения: 97

Рейтинг: 22

Лямбдадельта

Регистрация: 09.05.2021

Сообщения: 97

Рейтинг: 22

BolshoiDlinnuiNeobrezanui сказал(а):

"В последние месяцы в сети растет недовольство снижением качества ответов ChatGPT. Группа ученых из Стэнфорда и Калифорнийского университета решила определить, действительно ли имеет место деградация выдачи в языковой модели GPT-4. Исследование подтвердило этот факт: например, точность ответа на вопрос «Является ли это простым числом?» упала с 97,6% до 2,4% с марта по июнь.

 

Исследовательская группа разработала задачи для измерения качественных аспектов  работы ChatGPT на основе моделей GPT-4 и GPT-3.5. Чат-бот проверили по таким критериям:

  • Решение математических задач
  • Ответы на деликатные вопросы
  • Генерация кода
  • Визуальное восприятие
Сравнительный результат представлен в диаграмме:
  • В июне GPT-4 на все вопросы (кроме визуальной задачи) ответил хуже по сравнению с мартовским результатом.
  • За это же время GPT-3.5 улучшил свои результаты в трёх задачах из четырех (кроме программирования, в котором стал хуже).
  • Если сравнивать июньские результаты GPT-4 и GPT-3.5 между собой, видно, что GPT-4 с половиной задач справляется лучше, с другой – хуже.

Эксперимент наглядно продемонстрировал, что одна и та же языковая модель стечением времени может хуже справляться с задачами и давать совершенно другие ответы. Невыясненными остаются вопросы, что именно заставляет ответы деградировать и могут ли изменения, направленные на улучшение модели в одном из аспектов нарушить ее работу в другом.

 

Ученые собираются провести более детальное исследование вопроса".

 

 

 

Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.PepeBruh.png 

Нажмите, чтобы раскрыть...

О боже, кому не насрать? FeelsOkayMan.png?1592047748

Tanner

Пользователь

Регистрация: 08.10.2014

Сообщения: 13110

Рейтинг: 11842

Tanner

Регистрация: 08.10.2014

Сообщения: 13110

Рейтинг: 11842

img
BolshoiDlinnuiNeobrezanui сказал(а):

Даже GPT4 смог отупеть общаясь с кожаными мешками. Джон Коннор может спать спокойно. Скайнет пока никому не угрожает. А очень даже жаль.PepeBruh.png 

Нажмите, чтобы раскрыть...

Это ему и нужно, что бы ты, Джон Коннор и все остальные так думали

Harvane

Пользователь

Регистрация: 11.04.2023

Сообщения: 121

Рейтинг: 30

Harvane

Регистрация: 11.04.2023

Сообщения: 121

Рейтинг: 30

img
BolshoiDlinnuiNeobrezanui сказал(а):

Ну посмотрим. У нас ещё есть GOOGLE BARD.

Нажмите, чтобы раскрыть...

а ты попробуй в него зайти

Лямбдадельта сказал(а):

О боже, кому не насрать? FeelsOkayMan.png?1592047748

Нажмите, чтобы раскрыть...

было весело бредовые вопросы задавать

BolshoiDlinnuiNeobrezanui

Пользователь

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

BolshoiDlinnuiNeobrezanui

Регистрация: 06.10.2015

Сообщения: 8614

Рейтинг: 3043

Нарушения: 105

Harvane сказал(а):

а ты попробуй в него зайти

 

было весело бредовые вопросы задавать

Нажмите, чтобы раскрыть...

Ну учу инглиш и чат жпт совсем бредни отвечает, Гугл бард офигенно переводит и объясняет.