1. Правильно ли вы используете журнал испытаний? (arXiv)

Автор: Самир К. Дешпанде, Сумья Гош, Тин Д. Нгуен, Тамара Бродерик

Аннотация: Тест логарифмического правдоподобия обычно используется для сравнения различных моделей одних и тех же данных или различных алгоритмов приблизительного вывода для подбора одной и той же вероятностной модели. Мы представляем простые примеры, демонстрирующие, как сравнения, основанные на логарифмическом правдоподобии, могут противоречить сравнениям по другим целям. В частности, наши примеры показывают, что (i) алгоритмы приближенного байесовского вывода, которые достигают более высоких логарифмов правдоподобия, не обязательно должны также давать более точные апостериорные аппроксимации и (ii) выводы о точности прогноза, основанные на сравнениях логарифмов правдоподобия, могут не согласовываться с выводами, основанными на среднеквадратическая ошибка

2. Метод максимального логарифмического правдоподобия для несбалансированных задач обучения с несколькими выстрелами (arXiv)

Автор : Сэмюэль Гесс, Грегори Дитцлер.

Аннотация: Обучение за несколько шагов — это быстро развивающаяся область исследований в области машинного обучения, целью которой является классификация неразмеченных данных только с помощью одного или нескольких помеченных образцовых образцов. Нейронные сети обычно обучаются минимизировать метрику расстояния между помеченными примерными образцами и набором запросов. Ранние подходы с несколькими выстрелами используют эпизодический процесс обучения для разделения обучающих данных на пакеты из нескольких кадров. Этот процесс обучения соответствует подвыборке, выполненной при оценке. В последнее время традиционная контролируемая тренировка в сочетании с косинусной дистанцией позволила добиться превосходных результатов при малом количестве выстрелов. Несмотря на разнообразие подходов, применявшихся за последнее десятилетие, большинство методов по-прежнему полагаются на слой косинусного или евклидова расстояния между скрытыми особенностями обученной сети. В этой работе мы исследуем распределения обученных функций с несколькими выстрелами и демонстрируем, что их можно грубо аппроксимировать как экспоненциальные распределения. При этом предположении экспоненциального распределения мы предлагаем новую метрику максимального логарифмического правдоподобия для архитектур с несколькими выстрелами. Мы демонстрируем, что предлагаемая метрика обеспечивает превосходную точность производительности по сравнению с другими показателями. традиционные метрики подобия (например, косинус, евклидова и т. д.) и обеспечивают современную индуктивную производительность с несколькими импульсами. Кроме того, дополнительных преимуществ можно достичь, тщательно комбинируя несколько метрик, и ни один из наших методов не требует преобразований признаков постобработки, которые являются общими для многих алгоритмов. Наконец, мы демонстрируем новый итерационный алгоритм, разработанный на основе нашего подхода максимального логарифмического правдоподобия, который обеспечивает современную трансдуктивную производительность при нескольких выстрелах, когда оценочные данные несбалансированы. Мы выложили наш код в открытый доступ по адресу https://github.com/samuelhess/MLL_FSL/.