Человеческий фактор vs искусственный интеллект

dunch, вряд ли релизы чаще, чем раз в месяц. Очень дорого это - обучать модель
 
А LLM разве не обучающаяся нейросеть?
А LLM разве не обучающаяся нейросеть?
Обучающаяся но чему? Сначала в нее тупо загоняют триллионы текстов, в режиме обучения _предскажи следующее слово_. Потом начинают дообучать рассуждать. Потом еще долго мучаются чтобы обучить не отвечать плохишам.

Но по сути все что ЛЛМ умеет это предсказать желательный ответ. По аналогии с тем что в нее загнали.

Потом еще добавляют RAG - ваши документы превращают в набор векторов, запрос к модели тоже в набор векторов и просят базу подобрать документы которые ближе всего к запросу, и добавляют их в запрос.

Все это не более чем иммитация мышления дрессированным медведем.
 
dunch, вряд ли релизы чаще, чем раз в месяц. Очень дорого это - обучать модель
Да не то чтобы дорого. GPU стоят и часто простаивают, загрузи их дообучением. Плюс к тому конечно мало кто будет с полного нуля обучать автопилот, будут файн тюнить - дообучать имещийся. Или часто используют бегемотные модели для оценки результатов обучения без которых обучение невозможно.

Но я как то вижу тенденцию в то чтобы идти к специализированным моделям и уменьшать их размеры а не раздувать бегемотов на 600 биллионов нейронов. Прогресса у бегемотов уже почти не заметно (речь про NLM). А вот у специализированных моделей прогресс очень ощутим. Хотя и они обучались часто так что могут ответить как звали коня Цезаря например.
 
LLM значит не AI. Вещи лучше называть своими именами.
 
В корпоративных масштабах БЯМ не обучают.
Если, конечно, ваша корпорация не Майкрософт или Гугл.
Но у них это продукт.