LLLit: Изучение и практика программирования

Публикации по теме 'hugging-face'


Развертывание больших языковых моделей с HuggingFace TGI
Еще один способ эффективного размещения и масштабирования LLM с помощью Amazon SageMaker. Популярность больших языковых моделей (LLM) продолжает расти, поскольку почти каждую неделю выпускается новая модель. С увеличением количества этих моделей растут и варианты их размещения. В моей предыдущей статье мы рассмотрели, как можно использовать DJL Serving в Amazon SageMaker для эффективного размещения LLM. В этой статье мы исследуем еще один оптимизированный модельный сервер и решение..

Больше никаких платных конечных точек: как с легкостью создать свои собственные бесплатные конечные точки генерации текста
Одной из самых больших проблем при использовании LLM является стоимость доступа к ним. Многие LLM, такие как OpenAI GPT-3, доступны только через платные API. Узнайте, как развернуть любой LLM с открытым исходным кодом в качестве бесплатной конечной точки API с помощью HuggingFace и Gradio. Модели больших языков (LLM) набирают популярность из-за их способности создавать текст, переводить с одного языка на другой и создавать различные формы творческого контента. Однако одной из самых..

Интеграция Langchain с моделями HuggingFace на Amazon SageMaker
Библиотека Langchain предоставляет удобный способ использования больших языковых моделей (LLM), размещенных на Amazon SageMaker , для различных задач обработки естественного языка. Однако подробная документация по интеграции различных конечных точек SageMaker с Langchain в настоящее время ограничена. В этом посте показано, как создать собственный обработчик контента для вызова моделей HuggingFace, развернутых в SageMaker, с использованием Контейнера вывода HuggingFace LLM . Для..

Конечные точки вывода HuggingFace
Быстрое развертывание моделей Transformers для серийного производства Постоянной темой моих статей было развертывание ваших моделей машинного обучения. По мере того, как машинное обучение становится все более популярным, растет и количество вариантов развертывания моделей для пользователей. HuggingFace , в частности, стал лидером в области машинного обучения, и для специалистов по науке о данных невероятно вероятно, что вы использовали модель трансформеров в прошлом. HuggingFace..

Новые материалы

Как развивается смешанно-целочисленное программирование, часть 7
Унифицированная техника раннего завершения для первично-двойственных алгоритмов в смешанно-целочисленном коническом программировании (arXiv) Автор : Ювэнь Чэнь , Кэтрин Нин , Поль Гулар..

Как научить модель Keras распознавать текст переменной длины
Я некоторое время играл с официальным примером Keras image_ocr.py и хочу поделиться своими выводами в этом посте. В официальном примере выполняется только обучение модели, но отсутствует..

Практическая пакетная нормализация
История начинается после использования инициализации He вместе с ELU (или любым вариантом ReLU) может значительно снизить опасность проблем с исчезающими/взрывающимися градиентами в начале..

Поэзия онлайн-кодирования: путешествие пикселей и страсти
В мире, наполненном инновациями, онлайн-обучение программированию становится холстом, на котором обретает форму полотно вашей мечты. Это больше, чем просто создание строк кода; это сродни..

Обработка изображений с помощью Python - размытие и повышение резкости для начинающих
Как применить ядра свертки к цветным изображениям? В этой статье мы обсудим, как применять ядра размытия и повышения резкости к изображениям. Эти базовые ядра составляют основу многих более..

Ограничение скорости в .NET Core 7 Web API
Что такое ограничение скорости? Ограничение скорости — это процесс, используемый для ограничения количества запросов, разрешенных для определенного ресурса в указанном временном окне. .NET..

Стабильная Diffusion 1.0 выдаёт более красивые картинки, чем SD 2.1?! Почему?
Удивительные открытия, которые я сделал недавно. Смотрите в видео: https://youtu.be/PakgD6FewoU Есть одно логичное объяснение — что у вас?