LLLit: Изучение и практика программирования

Публикации по теме 'deep-learning'


Работа с концепцией Supremum в машинном обучении, часть 1.
О супремуме семейства функций множества (arXiv) Автор: Сантьяго Камбронеро , Дэвид Кампос , К. А. Фонсека-Мора , Дарио Мена Аннотация: Понятие супремума семейства функций множества было введено М. Верааром и И. Ярославцевым (2016) для семейств мер, определенных на измеримом пространстве. Мы расширяем эту концепцию, включив в нее семейства функций множеств в очень общем виде. Случай семей подписанных мер широко обсуждается и используется. 2. Верхняя грань броуновских..

Понимание оптимизации роя частиц (аналитика данных + оптимизация)
1.Адаптивный анализ скрытых факторов с помощью обобщенной оптимизации роя частиц, включенных в импульс ( arXiv ) Автор: Цзюфан Чен , Е Юань Аннотация: Алгоритм стохастического градиентного спуска (SGD) — это эффективная стратегия обучения для построения модели латентного факторного анализа (LFA) на многомерной и неполной (HDI) матрице. Алгоритм оптимизации роя частиц (PSO) обычно используется для создания гиперпараметров модели LFA на основе SGD, то есть скорости обучения и..

Объяснение документов 36: MobileBERT
MobileBERT такой же глубокий, как и BERTLARGE, но каждый стандартный блок делается намного меньше, скрытое измерение каждого стандартного блока составляет всего 128. С другой стороны, мы вводим два линейных преобразования для каждого стандартного блока, чтобы настроить его входные и выходные размеры до 512. Мы называем такую ​​архитектуру узким местом. Обучить такую ​​глубокую и тонкую сеть сложно. Чтобы преодолеть проблему обучения, мы сначала создаем сеть учителей и обучаем ее до..

Примеры использования Stereo Matching part3(Machine Learning + AI)
Изучение распределения ошибок стереосопоставления для совместной оценки несоответствия и неопределенности (arXiv) Автор: Лиян Чен , Вэйхан Ван , Филиппос Мордохай . Аннотация: Мы представляем новую функцию потерь для совместной оценки диспаратности и неопределенности в глубоком стереосопоставлении. Наша работа мотивирована необходимостью точных оценок неопределенности и наблюдением, что многозадачное обучение часто приводит к повышению производительности во всех задачах. Мы..

Насколько контрастное обучение стабилизировало часть 3 (машинное обучение)
Контролируемое контрастное обучение с гетерогенным сходством для сдвигов распределения (arXiv) Автор: Такуро Куцуна Аннотация: Сдвиги распределения — это проблемы, когда распределение данных меняется между обучением и тестированием, что может значительно снизить производительность модели, развернутой в реальном мире. Недавние исследования показывают, что одной из причин деградации является своего рода переоснащение, и что правильная регуляризация может смягчить деградацию, особенно..

Введение в графовые нейронные сети
Почему GNN — Данные в большинстве алгоритмов машинного обучения обычно представлены в евклидовом пространстве (хотя у нас мало механизмов для преодоления этого). В большинстве случаев он представлен в числовой форме в любом месте декартовой плоскости. В глубоких нейронных сетях у нас часто есть слой внедрения для представления текста и слой выравнивания для данных изображения. Эти представления исключают любую неотъемлемую связь между данными, которую должны учитывать слои обработки...

Как работает дифференцируемый рендеринг, часть 7 (машинное обучение)
Уточнение позы многовидового объекта с помощью дифференцируемого средства рендеринга (arXiv) Автор : Иван Шугуров , Иван Павлов , Сергей Захаров , Слободан Илич . Аннотация: В этой статье представлен новый подход к уточнению позы объекта с несколькими ракурсами и шестью степенями свободы, ориентированный на улучшение методов, обученных на синтетических данных. Он основан на детекторе DPOD, который создает плотные 2D-3D соответствия между вершинами модели и пикселями изображения в..

Новые материалы

Технологии для нетехнологов 6: Простое объяснение языков программирования
Одним словом, программирование — это автоматизация, но в более широком смысле — это способ «поручить компьютеру выполнять различные задачи». Инструкции отправляются кодом, и этот код может быть..

CS373 Summer 2018: Миранда Фуленчек
CS373 Summer 2018: Миранда Фуленчек Неделя 1: 4 июня — 10 июня Что вы делали на прошлой неделе? Занятия начались на этой неделе, поэтому большую часть времени я потратил на..

Как развивается смешанно-целочисленное программирование, часть 7
Унифицированная техника раннего завершения для первично-двойственных алгоритмов в смешанно-целочисленном коническом программировании (arXiv) Автор : Ювэнь Чэнь , Кэтрин Нин , Поль Гулар..

Как научить модель Keras распознавать текст переменной длины
Я некоторое время играл с официальным примером Keras image_ocr.py и хочу поделиться своими выводами в этом посте. В официальном примере выполняется только обучение модели, но отсутствует..

Практическая пакетная нормализация
История начинается после использования инициализации He вместе с ELU (или любым вариантом ReLU) может значительно снизить опасность проблем с исчезающими/взрывающимися градиентами в начале..

Поэзия онлайн-кодирования: путешествие пикселей и страсти
В мире, наполненном инновациями, онлайн-обучение программированию становится холстом, на котором обретает форму полотно вашей мечты. Это больше, чем просто создание строк кода; это сродни..

Обработка изображений с помощью Python - размытие и повышение резкости для начинающих
Как применить ядра свертки к цветным изображениям? В этой статье мы обсудим, как применять ядра размытия и повышения резкости к изображениям. Эти базовые ядра составляют основу многих более..