Публикации по теме 'deep-learning'
Работа с концепцией Supremum в машинном обучении, часть 1.
О супремуме семейства функций множества (arXiv)
Автор: Сантьяго Камбронеро , Дэвид Кампос , К. А. Фонсека-Мора , Дарио Мена
Аннотация: Понятие супремума семейства функций множества было введено М. Верааром и И. Ярославцевым (2016) для семейств мер, определенных на измеримом пространстве. Мы расширяем эту концепцию, включив в нее семейства функций множеств в очень общем виде. Случай семей подписанных мер широко обсуждается и используется.
2. Верхняя грань броуновских..
Понимание оптимизации роя частиц (аналитика данных + оптимизация)
1.Адаптивный анализ скрытых факторов с помощью обобщенной оптимизации роя частиц, включенных в импульс ( arXiv )
Автор: Цзюфан Чен , Е Юань
Аннотация: Алгоритм стохастического градиентного спуска (SGD) — это эффективная стратегия обучения для построения модели латентного факторного анализа (LFA) на многомерной и неполной (HDI) матрице. Алгоритм оптимизации роя частиц (PSO) обычно используется для создания гиперпараметров модели LFA на основе SGD, то есть скорости обучения и..
Объяснение документов 36: MobileBERT
MobileBERT такой же глубокий, как и BERTLARGE, но каждый стандартный блок делается намного меньше, скрытое измерение каждого стандартного блока составляет всего 128. С другой стороны, мы вводим два линейных преобразования для каждого стандартного блока, чтобы настроить его входные и выходные размеры до 512. Мы называем такую архитектуру узким местом.
Обучить такую глубокую и тонкую сеть сложно. Чтобы преодолеть проблему обучения, мы сначала создаем сеть учителей и обучаем ее до..
Примеры использования Stereo Matching part3(Machine Learning + AI)
Изучение распределения ошибок стереосопоставления для совместной оценки несоответствия и неопределенности (arXiv)
Автор: Лиян Чен , Вэйхан Ван , Филиппос Мордохай .
Аннотация: Мы представляем новую функцию потерь для совместной оценки диспаратности и неопределенности в глубоком стереосопоставлении. Наша работа мотивирована необходимостью точных оценок неопределенности и наблюдением, что многозадачное обучение часто приводит к повышению производительности во всех задачах. Мы..
Насколько контрастное обучение стабилизировало часть 3 (машинное обучение)
Контролируемое контрастное обучение с гетерогенным сходством для сдвигов распределения (arXiv)
Автор: Такуро Куцуна
Аннотация: Сдвиги распределения — это проблемы, когда распределение данных меняется между обучением и тестированием, что может значительно снизить производительность модели, развернутой в реальном мире. Недавние исследования показывают, что одной из причин деградации является своего рода переоснащение, и что правильная регуляризация может смягчить деградацию, особенно..
Введение в графовые нейронные сети
Почему GNN —
Данные в большинстве алгоритмов машинного обучения обычно представлены в евклидовом пространстве (хотя у нас мало механизмов для преодоления этого). В большинстве случаев он представлен в числовой форме в любом месте декартовой плоскости. В глубоких нейронных сетях у нас часто есть слой внедрения для представления текста и слой выравнивания для данных изображения. Эти представления исключают любую неотъемлемую связь между данными, которую должны учитывать слои обработки...
Как работает дифференцируемый рендеринг, часть 7 (машинное обучение)
Уточнение позы многовидового объекта с помощью дифференцируемого средства рендеринга (arXiv)
Автор : Иван Шугуров , Иван Павлов , Сергей Захаров , Слободан Илич .
Аннотация: В этой статье представлен новый подход к уточнению позы объекта с несколькими ракурсами и шестью степенями свободы, ориентированный на улучшение методов, обученных на синтетических данных. Он основан на детекторе DPOD, который создает плотные 2D-3D соответствия между вершинами модели и пикселями изображения в..
Новые материалы
Технологии для нетехнологов 6: Простое объяснение языков программирования
Одним словом, программирование — это автоматизация, но в более широком смысле — это способ «поручить компьютеру выполнять различные задачи». Инструкции отправляются кодом, и этот код может быть..
CS373 Summer 2018: Миранда Фуленчек
CS373 Summer 2018: Миранда Фуленчек
Неделя 1: 4 июня — 10 июня
Что вы делали на прошлой неделе?
Занятия начались на этой неделе, поэтому большую часть времени я потратил на..
Как развивается смешанно-целочисленное программирование, часть 7
Унифицированная техника раннего завершения для первично-двойственных алгоритмов в смешанно-целочисленном коническом программировании (arXiv)
Автор : Ювэнь Чэнь , Кэтрин Нин , Поль Гулар..
Как научить модель Keras распознавать текст переменной длины
Я некоторое время играл с официальным примером Keras image_ocr.py и хочу поделиться своими выводами в этом посте.
В официальном примере выполняется только обучение модели, но отсутствует..
Практическая пакетная нормализация
История начинается после использования инициализации He вместе с ELU (или любым вариантом ReLU) может значительно снизить опасность проблем с исчезающими/взрывающимися градиентами в начале..
Поэзия онлайн-кодирования: путешествие пикселей и страсти
В мире, наполненном инновациями, онлайн-обучение программированию становится холстом, на котором обретает форму полотно вашей мечты. Это больше, чем просто создание строк кода; это сродни..
Обработка изображений с помощью Python - размытие и повышение резкости для начинающих
Как применить ядра свертки к цветным изображениям?
В этой статье мы обсудим, как применять ядра размытия и повышения резкости к изображениям. Эти базовые ядра составляют основу многих более..