Нужны ли негативные примеры при классификации изображений?

Есть сеть EfficientNet, обученная на большом ImageNet.
Задача переобучить сеть классифицировать изображения на 3 свои класса.

Есть пример с переобучением на классификацию «кошки / собаки».

Но будут попадаться и изображения, не содержащие ни одного из 3 заданных идентифицируемых объектов – случайные снимки.

Вопрос: при переобучении сети надо ли её обучать на 4 классах, добавив изображения, не содержащие искомые объекты?

Изначально мне передали сеть именно так обученную на 4 классах, включая 4-й класс «НЕТ». На выходе получаются 4 вероятности. Из них берётся максимальная. Собраны папки фотографий для каждого из 3 классов и 4-я папка со случайными снимками, не содержащими ни одного из 3 объектов.

Сомневаюсь, что надо обучать на классе «НЕТ».
Как поступать, если брать только 3 класса – задать некий порог, и если ни под одному классу нет уверенности выше, скажем, 90%, то считать, что картинка не содержит искомое?
  • Вопрос задан
  • 51 просмотр
Пригласить эксперта
Ответы на вопрос 1
DanilBaibak
@DanilBaibak
Machine Learning engineer
Ответ зависит от того, как с какими изображениями сеть будет работать в продакшене.

Вариант, когда обучаете на 3х классах и добавите логику, которая проверяет вероятности (если вероятность для всех 3х классов ниже threshold, то 4й класс) вполне рабочий.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы