Задать вопрос
  • Безопасно ли использовать get.activated.win?

    @rPman
    конечно нет

    что бы было безопасно, загружаешь скрипт локально, пропускаешь его через ИИ, там будут еще скрипты загружаемые, просишь ссылку, загружаешь и этот скрипт, прогоняешь в этом же окне, и только тогда, сохраняешь локально и запускаешь (скрипты ты видишь, но сайт может персонально тебе отдать содержимое, отличающееся от того что отдавал другим, да там просто по user agent отличит браузер от powershel загрузчика и отдаст разный контент)

    p.s. 3 года назад о таком можно было только мечтать, приходилось доверять ну совсем полностью, а тут есть шансы (порядка 70%) что ИИ найдет бекдоры (на искусственно добавляемые для теста он находил, причем я тестировал локальные типа phi4)
    Ответ написан
    Комментировать
  • Откуда у дисков в windows взялось двоеточие и зачем оно нужно?

    @rPman
    Самое великое историческое легаси, которое тянется со времен CP/M (который был до MS DOS) да и кучи тогдашних ос типа apple dos/Commodore c64/ , в 1970-ых
    Там не было каталогов но были устройства, и файлы именовались "буква устройства" : "имя файла" ну а в DOS добавили каталоги через "\"

    Кстати \ был, потому что в первой версии dos не было каталогов но уже были ключи командной строки у утилит через /, и когда добавили каталоги, что бы не терять совместимость, сделали \

    От туда же и учет больших и маленьких букв в файловой системе как одинаковых, потому что в тогдашнем fat не было длинных имен (11 символов на имя), и эту кстати лицензионную ловушку майкрософт заложили уже в win95, благодаря которой надоили со всего мира миллиарды.
    Ответ написан
    1 комментарий
  • Какой гипервизор выбрать?

    @rPman
    Лицензионно 'чистый' только linux + kvm (в качестве запускалки - libvirt+virtmanager плюс модуль lxc до установить), может еще opensource вариант virtualbox (без расширения от oracle), в windows даже с рабочими ревизиями идет своя виртуалка (ее тоже можно использовать без ограничений), но она заметно менее удобная да и ресурсы такая хост машина будет жрать сильно больше linux

    Само собой вместо linux можно поставить proxmox, потому что основано оно на debian но это менее гибко (хост машина не будет доступна ни для чего, с организационной точки зрения это лучше, но бывает что наличие хост linux системы все же нужно, например для доступа к gpu без накладных расходов)

    Если хост машина и виртуальная будут linux, то настоятельно рекомендую паравиртуализацию lxc, на ее работу ресурсы тратиться не будут.
    Ответ написан
    8 комментариев
  • Как оставить активным GUI на сервере при выходе?

    @rPman
    я обходил проблему дисконнекта каскадированием подключений, для каждого подключения заводится дополнительный пользователь, единственная задача которого подключиться по rdp (localhost с нужным пользователем), в этом случае дисконнект этого дополнительного пользователя не затронет окно основного.

    еще есть ibik aster, одна машина - много сессий (платная), в отличии от rdp работает на рабочих станциях (это дешевле на пару порядков чем сервер), позволяет поднимать много сессий (десяток точно) и главное это настоящая консоль а не виртуальный rdp, с поддержкой 3d графики и прочего.

    подумайте о запуске приложения на linux (wine/proton), там нет никаких проблем и искусственных ограничений (любое количество xserver, например xvfb подключаться к каждому по vnc или xephyr, где каждая сессия просто в окне)
    Ответ написан
    Комментировать
  • Как проверять файлы в S3 хранилище?

    @rPman
    Сохраняя сразу в s3 хранилище, увеличиваешь стоимость в ~два раза (каждый файл будет загружен и выгружен, т.е. дважды), а у амазона к примеру стоимость сетевого трафика грустная. И да, проверить по кусочкам файл не получится, антивирусу файл нужен целиком. В принципе на сколько я знаю есть s3fs-fuse - файловая система где файлы грузятся с s3 прозрачно, возможно, если антивирус не проверяет все типы файлов, а проверяемый является архивом, то это может дать какой то бонус, но нужно еще удостовериться что эта файловая система так умеет... да и не стоит так усложнять все.

    Оперативка дороже диска, примерно на порядок (особенно с ростом размера файлов), с другой стороны до сотен мегабайт хватит держать файл в оперативке. Не вижу особой проблемы складывать файл на диск, проверять его и только после этого заливать в хранилище. Поэтому складывай на диск, проверяй, можешь параллельно запустить сохранение в s3 (потом прервешь или удалишь загруженное, если обнаружишь вирус).

    docker не про безопасность а про изоляцию (для организации специфический версий библиотек), он не нужен именно для проверки файла на вирусы
    Ответ написан
  • Какие возможны проблемы при установке linux системы на гибрид планшета и ноутбука?

    @rPman
    У меня был планшетник+отстегивающаяся клавиатура на этом процессоре (жаль, сломался экран, чинить дороже нового), на нем прекрасно шел linux (кажется 18.04 ubuntu) из странного, какой то непонятный процесс изредка отжирал одно ядро процессора (что то там intel в названии) я не разбирался тогда, посчитал его частью стандартных драйверов... особо ничего не настраивал но не работало hibernate (обычный сон работал), сенсорный экран и wifi/bluetooth тоже работали.

    p.s. обычно linux не легче windows, но у вас ЕСТЬ возможность сделать его легким, в отличии от windows, и при этом продолжать получать обновления и свежий софт.
    Ответ написан
    Комментировать
  • Как сделать искуственный интеллект на компьютере и подключить к нему камеры, микрофоны?

    @rPman
    * детектируешь голос (в любом случае будешь делать что бы сэкономить)
    простым алгоритмом, не требующим особой энергии, нужно понять, когда кто-либо говорит, для этого достаточно разложения (алгоритмы VAD - voice activity detection), там вариантов куча, от простого подсчета амплитуды (накапливаешь на интервале, при превышении - считаешь что есть речь) или спектрального (то же самое но на узкой полосе частот человеческой речи) до полноценной миниатюрной нейронной сети (десятки весов, пара слоев), которая будет эффективно работать на встроенных в процессор технологий (именно так смартфоны все слушают даже в заблокированном состоянии и энергии хватает на несколько часов)
    * транскрибация голоса в текст
    так уж получилось, что с текстом работать гораздо удобнее чем с аудио, при этом конечно теряется куча информации (интонация, эмоции, владелец голоса и т.п.), но часть информации можно сохранять еще с этапа спектрального анализа
    * обработка текста
    от простых классических алгоритмов (они могут быть сложные в смысле размера но простые для понимания)
    'включи/выключи камеру (номер камеры)' -> включаем/выключаем камеру номер такая-то
    до использования текстовых ИИ
    там все не так просто, языковые особенности вынуждают либо закладывать падежи, времена, род и т.п. в алгоритмы либо забивать сотни вариантов одной и той же команды.
    * инструменты настройки и контроля за управляемым оборудованием
    когда у тебя один микрофон, одна камера и одна лампочка, не нужно где то хранить сколько их, где они находятся, и как их настраивать, один раз вручную настроил а код работает с абстрактной - просто камера, но когда камер лампочек много, их нужно как то идентифицировать, как то ими управлять (у тебя одни камеры сяоми с одним хакнутым api и пара своих поделок со своим) следить что они работают,..
    * инструменты настройки логики управления
    добавить свою команду (надоело говорить 'выключи свет, закрой шторы' а хочешь - 'подготовка ко сну'), переименовать "камера 7" на "камера в спальне", ввести возможность контроля за владельцем голоса (типа если ты скажешь 'выключи свет' то действовать, а если кто то другой, сказать - 'не хочу') и за ним инструменты авторизации (например приложение на смартфоне, ожидающее двойное нажатие кнопки громкости для подтверждения и вибро для обратной коммуникации) и миллион других тонкостей, без которых твой умный дом никому будет не нужен.

    И на этом этапе, использование готовой ИИ, которой даешь ручки управления, скидываешь сырой текст и ждешь что все будет работать как ожидается, может столкнуться с техническими ограничениями размера промпта.

    p.s. недавно появился openai realtime api и мультимодальная модель gpt4o-realtime, умеющая текст и голос, там реализовали базовый инструментарий для реализации голосовых агентов, работающих в реальном времени, но сам не пробовал (только то что майкрософт предлагает голос-голос без ручек к инструментам, прикольно, но это игрушка)

    p.p.s. майкрософт, когда релизила phi4, тихонько в уголке выложили свою мультимодальную модель с тремя модельностями text-image-audio. Тихо, наверное потому что из-за трех модальностей оно получилось не очень? я не пробовал
    Ответ написан
    Комментировать
  • Как перевести HTML-текст, не теряя теги?

    @rPman
    Вот такой незамысловатый промпт у меня небольшие html странички переводит без видимых проблем, пробовал openai:gpt-4.1
    Ты переводчик с русского на английский, умеешь переводить тексты любого типа, в т.ч. с html форматированием, без потери этого форматирования и с сохранением пунктуации (в т.ч. и ошибок), например
    ```
    <p>я <b>тебя</b> люблю</p>
    ```
    выдавай перевод
    ```
     <p>i love <b>you</b></p>
    ```
    Теперь на каждое мое сообщение отвечай его переводом на английский
    Ответ написан
  • Нейросеть на ПК для обработки книжной литературы с последующей выдачей ответов по запросам?

    @rPman
    Из-за технических ограничений современного ИИ, данная задача решается плохо. Причина - gpt это как человек, страдающий антероградной амнезии, у него есть кратковременная память (контекстное окно) но ее размер сильно ограничен (стоимость простого ответа - квадрат от размера контекстного окна, а обучение - куб, есть лайфхаки, уменьшающие эти требования но они уменьшают и потенциальные возможности, связанные с данными на больших 'расстояниях'). А еще из-за не совершенства технологии, то что ИИ уже узнало, пока училось, у нее 'путается в голове' и оно галлюцинирует.

    В качестве примера, есть llama scount с 10кк окном контекста, но она потребует 18терабайт памяти (gpu естественно) для работы, и даже тут в нее влезет не так много документов

    Готовое не посоветую, это сейчас топ исследований, гитхаб завален всякими поделками chatgpt с RAG, со средним качеством. Вся задача сводится к поиску частей документов, которые хоть как то подходят к ответу, и сваливание их в итоговый запрос, что само собой не может дать хорошего результата (нужные данные могут никак не быть близко по смыслу с вопросом). Есть попытки строить граф знаний, но это форма представления но не алгоритм разбора сырых данных. Технологии, которые позволяют строить индекс на основе смыслов - построение embendings векторов (вот отвечал списком ключевых слов для поиска)

    Если каждый отдельный документ помещается в контекстное окно, то проблема решается итеративно - берем наш исходный вопрос, и задаем его ИИ для каждого документа по отдельности, можно добавить что то типа 'для решения нашей задачи есть ли в этом документе что то полезное?'. В последствии повторить вопрос уже для тех документов или их частей, которые оказались полезны. Можно даже заранее строить индекс из документов, являющийся краткой самморизацией его содержимого (или по главам). Этот подход работает но очень дорогой/медленный (можно минутами-часами ждать ответа).

    Обработка больших данных с помощью ИИ это что то типа чата, "системный промпт + пример + ответ + пример +... + часть исходных данных -> ответ", причем полученные предыдущие ответы могут пойти в примеры.. это multishot подход значительно повышает качество ответа до сих пор. Ты как бы пробегаешь по всему документу, где после подачи его части ИИ делает свой комментарий - о это полезно, или это нам не нужно... на практике там конечно еще рассуждающая часть и итеративный процесс может состоять из нескольких шагов для каждой части - типа сначала спрашиваешь о чем тут говорится (это можно закешировать), позже добавляешь вопрос, полезно ли это для нашего ответа, а так как многие модели научены размышлять, придется еще раз спросить - ответь да/нет (тут можно включить structured outputs, зафиксировав формат ответа). По мере анализа сохраняешь ссылки на те части документа, что оказались полезны, и уже их можно использовать повторно для итогового диалога.

    С анализом между документами еще хуже (когда для ответа требуется информация, которую можно получить проанализировав сразу несколько документов, но по отдельности они бесполезны), у топовых ИИ можно можно просить задавать вопросы, т.е. ии может просить дать недостающую информацию (точно помню как anthropic:sonnet пытал написать утилиту работы с guithub api подавая ему заведомо недостаточно данных, так вот правильно составленный промпт позволит ии отказываться давать ответ пока информации не станет достаточно),.. но трудоемкость получения результата будет еще выше - ведь тут для каждой подзадачи придется снова пробегать по документам или их самморизации.
    Ответ написан
    Комментировать
  • Как на C++ вывести результаты SQL-запроса в Excel?

    @rPman
    Первый же ответ в документацию из гугла
    Ответ написан
    2 комментария
  • Как написать скрипт на питоне который будет присылать сообщение в телеграм бот об включении, выключении компьютера, неудачной попытки входа в учетку?

    @rPman
    У тебя следующие задачи, которые решать придется по разному:
    * детектирование включения машины
    решается простой фиктивной службой systemd startup
    * детектирование выключения машины
    можно конечно тоже службой shutdown, но будут события только корректных выключений, а принудительные перезагрузки резетом или например ctrl+alt+shift+pause .. r (которая работает даже если модули ядра повиснут), не отловит.
    Тут можно поставить скрипт, анализирующий работу машины на соседнюю в сети, вариантов тьма.
    * попытки входа в систему
    В общем случае это в /var/log/auth.log там будет все, и использование sudo/su, и запуск процессов cron и служб (с указанием пользователя) и ssh подключения и тьма тьмущая всего что так или иначе затрагивает авторизацию, что и является 'вход в систему', там же можно посмотреть что пишет lightdm на попытки входа в gui

    Мониторить попытки входа придется скриптом, периодически читающим файл (осторожно tail -f /var/log/auth.log | my_script не отследит ротацию логов, поэтому лучше самому следить за датой последнего изменения файла и читать его с позиции, на которой остановился в прошлый раз ну или с нуля)
    upd. век живи век учись, ключ tail -F корректно будет работать с ротацией логов

    Если делать 'по феншую', то лучше работать с подсистемой сбора событий, в python с помощью python-systemd - journal например фильтруя по _SYSTEMD_UNIT=sshd.service и _COMM=sshd (сам я не делал, посмотрел что можно и в памяти отложил, сейчас ИИ спросил, да где то так и надо)

    * отправка сообщений в telegram
    можно конечно использовать какую-нибудь библиотеку, многословно, красиво... а можно отправить один http запрос по api telegram, кода минимум, наверное все так в своих скриптах делают
    https://api.telegram.org/bot<TOKEN>/sendMessage?chat_id=<CHAT_ID>&text=Hello%20World
    Ответ написан
    5 комментариев
  • С чем может быть связано временное замедление работы съёмного жесткого диска?

    @rPman
    когда из последних свободных ~30Гб заполняется ~15-20, то наблюдается следующая проблема
    Одно слово - фрагментация. Решение - освободить место (рекомендую 20-30%), запустить дефрагментатор (теперь это называется оптимизация, искать в свойствах диска - утилиты), и уже после этого вернуть файлы назад.

    Дефрагментация почти не работает, если места на диске нет, поэтому временно перенести файлы куда то придется. Раньше утилита дефрагментация позволяла посмотреть на распределение данных и главное свободного места на диске, теперь эту наиважнейшую информацию скрывают (может есть утилиты, я не искал). Альтернатива дефрагментации (она будет работать наилучшим способом но долго) - это backup - format - restore всего диска (если есть куда скопировать). Помню были утилиты, которые позволяли оценить степень фрагментации файла и переместить на другой диск только их, это позволит максимально эффективно освободить место на диске перед дефрагментацией (утилите останется только свободное место выравнивать)

    При фрагментации свободного места, каждый следующий файл будет раскидан по всему диску (причем иногда бывает до абсурда - сотни кусков, особенно если с диском активно работают в режиме - создания и удаления файлов, причем в разных порядках). А у hdd есть технических недостаток (так как там механическое устройство чтения данных) - скорость работы с диском (и чтение и запись) падает на пару порядков! до единиц мегабайт в секунду, если данные расположены в разных местах диска (фрагментирован).
    Ответ написан
    2 комментария
  • Почти неработающий WhatsApp и бестолковый провайдер. Как доказать провайдеру, что проблема - у него?

    @rPman
    На сколько я знаю whatsup и другие централизованные сервисы не подключаются к клиенту, наоборот, клиент инициирует подключение к серверу и уже по этому подключению идет коммуникация в обе стороны (из-за этого видеоконференции дорогое удовольствие для таких серверов, ведь трафик на сервере - квадрат от количества участников)

    Например whatsup прекрасно работает в мобильных сетях, которые почти по определению работают за сложным nat (обычно двойной - сначала nat во внутреннюю сеть оператора, а затем nat в обычный интернет), с ними не работают механизмы типа upnp (который кстати работает на пользовательском роутере).

    p.s. Но скорее всего причина все же в операторе, который блокирует какой-либо вид трафика, необходимый для работы whatsup. И формально, провайдер не просто не будет решать проблему, а будет готов это не делать по причинам того что компания meta 'запрещена' в россии и предоставлять услуги в т.ч. помогать ей он не обязан... такой вот у нас новый дивный мир

    p.p.s. я могу ошибаться, но может проблема не в работе whatsup (т.е. оно работает, можно звонить и получать сообщения) а именно в получении уведомления и звонка, я серьезно не изучал вопрос но кажется 'при неправильной' настройке смартфона принимать звонки с заблокированным экраном он не умеет
    Ответ написан
  • Каким шаблонизатором для MS Word вы пользовались?

    @rPman
    Используй формат .odt/.ods (open document format - настоятельно рекомендуется) или майкрософтовский .xlsx (почти то же самое, но исковерканное майкрософтом, скорее всего как часть их стратегии поддержки своей монополии), это zip архив с текстовыми документами xml, которые легко своими скриптами редактировать
    Ответ написан
    Комментировать
  • Какие есть модели mini PC с адекватной поддержкой always-on?

    @rPman
    Практически любой x86 компьютер можно в биосе настроить на автоматическое включение при появлении питания, но дальше проблема в операционной системе, если linux можно настроить как пожелаешь (например загружать всю файловую систему в оперативную память или отключить кеширование записи) то с windows гораздо сложнее.

    Большую часть проблем лучше решить аппаратно - поставив источник бесперебойного питания с поддержкой управления (почти все имеют возможно сподключить компьютер по usb/com) и настроить так что бы машина корректно завершала работу... правда в последнем случае автовключение из биоса уже не сработает, поэтому реализовать внешним модулем (даже на базе релюшек можно что-нибудь самому собрать).

    Проблемы с железом не посоветую, китайцы замусорили рынок говном более чем полностью, только перебором это решается.
    Ответ написан
  • Возможен ли качественный перевод при помощи нейросетей?

    @rPman
    Лучший качественный переводчик напрямую с голоса в голос, на текущий момент, это можно сделать на базе ИИ от openai - голосовой gpt (на основе gpt4o-audio и gpt4o-realtime есть еще mini варианты, они дешевле но очевидно тупее, хотя возможно для задач перевода более чем).

    Бесплатно audio-audio попробовать можно у майкрософта в windows 11 во встроенном в edge copilot а так же на сайте copilot.microsoft.com, но требуется vpn (до появления audio моделей я пользовался их copilot под linux, подменив user agent в chromium браузере но сейчас это не сработает). Полагаю для голоса там используется модель mini. Системный промпт текстом не понимает, нужно говорить голосом сразу после старта
    например:
    На каждое мое сообщение отвечай его переводом, с русского на английский, а любой другой язык переводи на русский. Скажи ок если все понятно.

    В этом случае он будет работать как синхронный переводчик

    Понимает интонации (можно спросить - обясни чем отличаются следующие фразы - и сказать две одинаковые фразы, которые меняют свой смысл от интонации, например - 'я тебя понял' по простому, с раздражением, с иронией и т.п.), то что ни одна модель транскрибации не поймет.

    В документации сказано что эти модели могут генерировать текст, так что формально они могут и голос в текст, но я не пробовал, все никак руки не дойдут потрогать realtime api, openrouter интерфейса не имеет а на основе официального нужно софт пилить, вроде есть примеры на github....

    Все остальное - это последовательная транскрибация audio -> текст и после этого текст -> перевод.
    Для транскрибации из открытых утилит - безусловно лидер openai:whisper (использовать large качественно но долго).
    И тут лучшим переводчиком является топовые gpt.

    Но есть нюанс - в готовом виде инструменты работают только для перевода коротких текстов (возможно chatgpt 'с памятью' уже научился но я не пробовал), например, при переводе книги, ее персонажи, в зависимости от пола, должны переводиться на русский по разному (он пошел - она пошла), если давать модели последовательно параграфы/главы, она не запомнит (контекстное окно считанные тысяча токенов, в него влезет пара глав от силы) пол персонажа, и придумает его от имени или даст случайный. Поэтому нужно в процессе перевода собирать важную информацию и добавлять его к системному промпту. Я пробовал такое в полуручном режиме, это работает шикарно.

    Еще момент, топовый gpt знает лучше любого автоматического переводчика нюансы языков, устоявшиеся выражения, мемы и языковые особенности, но пока ты об этом не попросишь, не будет самовольно использовать это знание, т.е. системный промпт получается не просто - переведи это... а сложное ТЗ на десятки-сотни строк (где то видел в тг каналах примеры промптов, они с трудом влезали в 8к токенов), а я считаю что простым чатом тут не обойтись, и нужен процесс, серия агентов, которые будут разбирать текст на части, анализировать его, выискивать языковые и географические (для автора) особенности, запоминать особенности стилистики автора по тексту и тьму тьмущую вещей, которые знают только профессиональные переводчики... в общем не простая задача, но она точно реальна.

    И да, русский язык в gpt, даже топовых, для галочки (были сообщения от openai разработчиков, что большое количество языков в обучающей выборке повышают ее качество), а значит если целевой язык не английский, высоких результатов не будет (но все еще лучше чем любой обычный автоматический переводчик, включая гугл, хотя они точно первые в этом)

    p.s. топовые ИИ это openai:gpt4o и выше (4.1, o1, o3 но я думаю это излишне), anthropic:claude_sonnet_4 (3.7 и 3.5 использовал на всю катушку, для разных задач), google:gemini_2.5_pro и т.п. Mistral/qwen/grok/deepseek попробуй сам. Из открытых я сильно удивился майкрософтовскому phi4 (всего 14b параметров, заработает у обывателя с 32-64гб ram), как минимум он неплохо отвечает на русском, до этого более менее на русском от 70b llama говорила (но качество ее перевода было ниже среднего), вроде бы gemma3 (12b..27b) тоже не плохи но я мало экспериментировал, она мультимодальная и требования к оперативке +24гб даже для 12b
    Ответ написан
    Комментировать
  • Можно ли подключить RAID контроллер PCIe x8 в слот PCIe x1?

    @rPman
    Динамические Тома это программный raid, сам по себе он не должен создать проблемы рассинхронизации, но это может сделать железо, например известня беда с hdd диски с черепичной записью, записи на такие диски может быть очень медленной (маскируется большим кешем) и raid отключает такие диски с ошибкой таймаута, потом он из видит и возвращает назад, выполняя синхронизацию.

    Так вот, использование аппаратного рейда эту проблему не решит.

    Вроде бы для программных рейдов linux эту проблему решали, но хз как с windows
    Ответ написан
    2 комментария
  • Возможно ли последовательное соединение электродвигателей?

    @rPman
    скорее всего там асинхронный двигатель, и если последовательно подключить двигатели (и они не будут синхронно вращаться, т.н. не посажены на одну ось с правильно настроенной фазой) то у них обоих будет неправильно подаваться напряжение (ожидается 50hz переменный, и с этой скоростью они вращаются), в общем один из двигателей может в случае неудачной рассинхронизации получить больше токи и перегреться ну или в лучшем случае будет сильно хуже работать один из двигателей

    если это щеточный то по уму должно работать
    Ответ написан
    Комментировать
  • Какое бесплатное ВПН расширение для браузера включается на определенном сайте?

    @rPman
    Расширение к браузеру FoxyProxy, очень гибко позволяет настраивать, какой домен и даже ссылки будет использовать какой прокси сервер.

    Так же есть штатный инструмент сценарий прокси сервера - .pac файл, это текстовый файл с JavaScript с единственной функцией, где прописываешь логику выбора прокси сервера от url.

    Сам же прокси сервер проще и дешевле сделать свой, берешь в аренду любой linux vps (любая конфигурация, даже самая слабая, главное что бы был ssh доступ) в локации, чей ip адрес нужен, и у себя на машине подключаешься к этому серверу любым ssh клиентом с ключем -Dпорт (динамический туннель в программе putty) и на этой локальной машине получаешь готовый socks прокси на localhost:порт, ничего настраивать не нужно
    Ответ написан
  • Раздельное масштабирование программ в KDE Plasma?

    @rPman
    https://doc.qt.io/qt-5/highdpi.html
    Попробуй запусти приложение, установив нему переименную окружения
    QT_SCALE_FACTOR=1 gwenview
    Ответ написан