LLLit: Изучение и практика программирования

Публикации по теме 'large-language-models'


Новое исследование раскрывает возможности больших языковых моделей для освоения более 16000 реальных API
В последние годы стало очевидным широкое внедрение моделей больших языков (LLM) в реальных приложениях. Однако производительность этих моделей обычно ограничена в задачах более высокого уровня, таких как обучение использованию внешних инструментов, таких как API. В предыдущей работе была предпринята попытка построить данные по настройке инструкций для использования инструментов, но этим усилиям помешала их неспособность полностью стимулировать возможности использования инструментов...

LLM по программированию: интерфейс естественного языка для вызова API
Используйте LLM-программирование для вызова API с помощью команд естественного языка. Подумайте о таком продвинутом чат-боте, который может помочь вам в определении проблемы или параметризации сложной системы или, в более простом случае, при вызове API, втором пилоте, способном дать вам подсказки о функциях, которые вы собираетесь использовать, способном объяснить каждый параметр снабжен примерами, чтобы ускорить вашу работу. С появлением больших языковых моделей это уже не просто..

Больше никаких платных конечных точек: как с легкостью создать свои собственные бесплатные конечные точки генерации текста
Одной из самых больших проблем при использовании LLM является стоимость доступа к ним. Многие LLM, такие как OpenAI GPT-3, доступны только через платные API. Узнайте, как развернуть любой LLM с открытым исходным кодом в качестве бесплатной конечной точки API с помощью HuggingFace и Gradio. Модели больших языков (LLM) набирают популярность из-за их способности создавать текст, переводить с одного языка на другой и создавать различные формы творческого контента. Однако одной из самых..

Модели больших языков (LLM) и их эволюция
В последнее время происходят огромные изменения в области технологий и, в частности, в области ИИ. Каждую неделю мы слышим о каких-то новых инструментах искусственного интеллекта или новой модели LLM, которые могут делать удивительные вещи, невероятные и пугающие одновременно. Текущий сценарий таков, что вы можете любить ИИ или ненавидеть ИИ, но вы не можете игнорировать ИИ. Большие языковые модели (LLM) — это тип нейронной сети, которая была обучена на огромных объемах текстовых..

Microsoft ORCA LLM решает проблему имитационного обучения в LFM и превосходит их.
Microsoft Research разработала Orca LLM, языковую модель с открытым исходным кодом с 13 миллиардами параметров и имитационным обучением. Он направлен на устранение одного из самых больших препятствий, с которыми сегодня сталкиваются модели OpenSource LLM, а именно размера и эффективности моделей Large Foundation (LFM). Orca LLM — это потомок LLaMA от Microsoft, усовершенствованный с использованием следов объяснений, полученных из GPT-4. Orca также использует прогрессивное обучение с..

ОТВЕТЫ НА ВОПРОСЫ И РЕЗЮМЕ: CHROMA DB, LANGCHAIN ​​И LLAMA INDEX
В этой статье рассказывается о моем проекте по ответам и обобщению вопросов, касающихся заявок SEC. Каждая публично зарегистрированная компания должна подавать годовой (10-K) и ежеквартальный отчет (10-Q). С появлением генеративных языковых моделей искусственного интеллекта мы можем создавать системы вопросов-ответов и обобщения этих документов. Вот ссылки проекта и загрузчик данных SEC. Загрузчик данных SEC: https://llamahub.ai/l/sec_filings GitHub —..

📈Большие языковые модели могут изменить то, как бизнес-пользователи взаимодействуют с данными
«Я достаточно долго смотрел на светящиеся плоские прямоугольники компьютерных экранов. Давайте уделять больше времени тому, чтобы заниматься делами в реальном мире. . . посадить растение, выгулять собак, прочитать настоящую книгу, сходить в оперу». ― Эдвард Р. Тафти, Представление информации Я только что прослушал фантастический подкаст с участием Эдварда Тафте (который считается провидцем в области визуализации и представления данных), и мои синапсы активируются во всех..

Новые материалы

Технологии для нетехнологов 6: Простое объяснение языков программирования
Одним словом, программирование — это автоматизация, но в более широком смысле — это способ «поручить компьютеру выполнять различные задачи». Инструкции отправляются кодом, и этот код может быть..

CS373 Summer 2018: Миранда Фуленчек
CS373 Summer 2018: Миранда Фуленчек Неделя 1: 4 июня — 10 июня Что вы делали на прошлой неделе? Занятия начались на этой неделе, поэтому большую часть времени я потратил на..

Как развивается смешанно-целочисленное программирование, часть 7
Унифицированная техника раннего завершения для первично-двойственных алгоритмов в смешанно-целочисленном коническом программировании (arXiv) Автор : Ювэнь Чэнь , Кэтрин Нин , Поль Гулар..

Как научить модель Keras распознавать текст переменной длины
Я некоторое время играл с официальным примером Keras image_ocr.py и хочу поделиться своими выводами в этом посте. В официальном примере выполняется только обучение модели, но отсутствует..

Практическая пакетная нормализация
История начинается после использования инициализации He вместе с ELU (или любым вариантом ReLU) может значительно снизить опасность проблем с исчезающими/взрывающимися градиентами в начале..

Поэзия онлайн-кодирования: путешествие пикселей и страсти
В мире, наполненном инновациями, онлайн-обучение программированию становится холстом, на котором обретает форму полотно вашей мечты. Это больше, чем просто создание строк кода; это сродни..

Обработка изображений с помощью Python - размытие и повышение резкости для начинающих
Как применить ядра свертки к цветным изображениям? В этой статье мы обсудим, как применять ядра размытия и повышения резкости к изображениям. Эти базовые ядра составляют основу многих более..