для бюджетного AI
очень малоинформативно, но от этого может зависеть выбор железа.
С точки зрения сырой производительности, видеокарты отличаются на 25% (а тензорных ядер разница на 10%), и 5060 должна быть незначительно быстрее. Так же есть момент, в прошлом nvidia была замечена в 'умышленном' замедлении старых видеокарт в драйверах, вынуждая подбирать еще и правильную версию, ничто не мешает делать это в будущем, что бы продавать никому не нужные новые видеокарты.
Но есть еще момент, который может быть важнее скорости железа, причем меняя картину на порядок - количество оперативной памяти видеокарты. В тот момент, когда ее станет недостаточно, скорость падает, а точнее время, необходимое до получения результата вырастает на порядок.
Типовая ситуация - если веса нейронной сети и вся обучающая выборка полностью влезает в vram, то мощности видеокарты будут утилизированы на 100% и скорость сходимости при обучении (количество циклов прогона) будет наилучшей). Если обучающая выборка целиком не помещается в видеокарту, то ее размещают туда по частям, прогоняя цикл не по всем данным а по каждой части. Это так же позволит нагрузить видеокарту на 100% но итоговое количество циклов прогона увеличится (сходимость ухудшится, но это кстати может зависеть от алгоритма разделения обучающей выборки на части).
Если же веса нейронной сети не помещаются в оперативную память, то скорость тем более падает драматически (на порядок), даже если не помещается только небольшой процент, что очень заметно при использовании gpt нейронок.
Поэтому я рекомендую выбирать больше оперативной памяти чем производительность.