Задать вопрос
  • Хватит 16 гб озу и i3-7100 для офисного компьютера (word excel pdf много вкладок в браузере) на следующие 10 лет?

    @rPman
    На ближайшие 10 лет я бы советовал закупаться патронами и спичками
    <шутка>


    Гадать в IT на десяток лет вперед дело бессмысленное, 3 года назад только очень глубоко увлеченные ИИ понимали что transformer это что то крутое, но не думаю что даже они хотя бы приблизительно догадывались, какие возможности оно сейчас предоставляет (тогда верхом крутости был перевод у гугла, классный классификатор текстов и векторизация смыслов), а повторюсь, прошло только 3 года.

    windows12 минимальные требования 8гб, а помятую что было с win11 и win10, смело умножайте на 2, и это только на ближайшие 3-5 лет.

    Будущее десктопных компьютеров - ИИ, а так как США уже десятилетие придерживают адекватное развитие вычислительных устройств, работать всему этому придется на процессорах, поэтому хотите на перед что то, собирайте машины минимум с 64гб (уже сейчас microsoft phi-4 или та же qwen3-32b требуют столько)
    Ответ написан
    3 комментария
  • Порекомендуйте плагин для интеграции ИИ в MSVC?

    @rPman
    Вот тут искал?

    А еще меня немного удивляет, ладно обыватели, но разработчик, на вопрос интеграции ИИ в среду разработки не удосужился спросить у этого же ИИ, как можно интегрировать свой скрипт в среду разработки.. Там тут же выдается два варианта - простейшее расширение и еще более простой external tools, даже если ну совсем ничего не понимаешь, можно ведь по кусочкам попросить написать все ИИ и получить ровно то что нужно а не то что кто то где то накодил
    Ответ написан
  • Как сделать веб-скрейпинг сайта?

    @rPman
    Сайт требует авторизации, поэтому не понять, какая там используется технология.

    Универсально, максимально просто (с точки зрения разработки), но специфический метод разработки - сделать все из браузера.
    Достоинства - не важно как реализован сайт - генерация на сервере или на клиенте. Почти все простые инструменты противодействия скрапингу не будут работать. Большая часть анализа (реверсинженеринг) может быть произведена из браузера а что то даже автоматически. Готовый парсер DOM (собственно браузер и парсит). Работает там где не работают сторонние инструменты (например aliexpress делает верстку со специальными ошибками и сторонние парсеры разбирают DOM не правильно).
    Недостатки - требует запущенный браузер. Достаточно медленный (для однопоточных скрапперов это не критично). Неудобно сохранять объемные результаты, так как браузерное хранилище обладает специфическим api, ну на любителя (но можно на каждый объект выдавать запрос на скачивание в отдельный файлик, со включенным в браузере сохранением без вопроса, а потом простым внешним скриптом объединить, так же можно поднять свой https сервер и слать ему запросы с собранными данными).

    Итак, используя консоль разработчика браузера (F12 и правая кнопка на нужном элементе на странице - исследовать) исследуешь веб приложение, из каких оно состоит страниц, в какой их последовательности загружать, на какой странице какие данные нужно собирать (кнопка исследовать - там в DOM можно даже получить автоматический css селектор, по правой кнопке копировать как..) Между страницами переходить с помощью расширения браузера tempermonkey/greasemonkey (собственно все на его основе сделать, этот плагин инжектит твой скрипт на страницу, причем на разные страницы по маске можно задать разный скрипт).

    Обычно требуется задать временной интервал между операциями (например отсчитать 5 сек после открытия страницы, распарсить ее и перейти к следующей), делай это с помощью window.setTimeout(function(){...},миллисекунды)

    Элементы на странице ищешь штатным document.querySelector('css selector') и querySelectorAll а там к ним .value или .innerText или .checked (в зависимости от типа DOM элемента, читать документацию, например для input). Разрабатывай, тестируя код прямо в консоли браузера, а потом переноси в tempermonkey. Отладки там нормальной нет (есть но неудобная) поэтому активно используй логирование console.log(item); или просто item; будет видно все об объекте. Настоятельно рекомендую проверять все на null (если не найдется нужный элемент) и тогда выводи сообщение, по которому сможешь понять какой именно элемент не был найден (даже простого номера хватит, но удобнее когда тебе скрипт пишет - Для документа 123221 в секции 'Расширенная информация' не найдено элемента 'Наимнование'.

    Результат собирай в строку, а затем отправляй ее на сохранение.

    Снипет для каждого случая спрашивай у ИИ.. Не задавай ей полный вопрос со всей задачей, это сложно для нее, дели задачу на подзадачи и отправляй ему их. Напрмиер 'напиши javascript функцию для браузера для симуляции выгрузки файла в браузере, имя и содержимое этого файла пусть будет указано в аргументах этой функции'.

    ИИ пока терпимо работает только с текстовой информацией, он понимает и знает документацию, но к примеру верстку анализирует плохо, вся визуальщина в зачаточном уровне, поэтому ему к примеру будет сложно 'найти элемент на странице левее указанного', поэтому даже не пытайся притянуть его для решения такой задачи
    Ответ написан
    Комментировать
  • Подойдёт ли процессор ultra 5 125u для инженера?

    @rPman
    Не сумел даже найти на офф сайтах этих приложений минимальных требований, они не выглядят тяжеловестными или требующими мощное железо.
    Твоя модель гуглится, до 32gb ram ddr5, интегрированная видео, должно хватить.

    Но вот вопрос, вы уверены что вам нужен именно ноутбук? Большинство забывают, что формфактор ноутбука определяет его использование как 'мобильное устройство', т.е. приоритет не в удобстве использования как компьютера, а именно в мобильности (круче только планшетники и смартфоны, но там с юзабилити еще хуже).

    Я видел неоднократно, как народ покупал ноутбук, ставил его под стол, подключали его в розетку, клавиатуру, внешний монитор, и еще спрашивали, как закрыть крышку и что бы оно не засыпало... и в таком режиме работали все время, тогда вопрос, зачем ноутбук то выбирали?

    Ноутбуки, за свою мобильность, вынуждают платить потребителя низкой производительностью на затраченный рубль.

    Ну и про собственно работу именно за ноутбуком
    Ответ написан
  • Какая программа/библиотека проще для записи видео с ip камер?

    @rPman
    ffmpeg для записи и нарезки
    ffmpeg -i "$STREAM_URL" \
      -c copy \
      -f segment \
      -segment_time $SEGMENT_TIME \
      -segment_format mp4 \
      -reset_timestamps 1 \
      -strftime 1 \
      "recording_%Y%m%d_%H%M%S.mp4"

    рассылка на ftp так же скриптами, например с curl
    Ответ написан
  • Проблема с доступом к серверу, в чем может быть дело?

    @rPman
    Все зависит от места размещения сервера

    Если это датацентр провайдера, писать им в саппорт.

    Если это домашний, то жаловаться провайдеру, но реалии таковы что в россии выделенный ip перестал работать как надо, dpi блокирует все по своим собственным условиям, причем недетерменированно, сегодня работает завтра нет.
    Ответ написан
    Комментировать
  • Как отвязать устройство от ChatGPT?

    @rPman
    Задавай вопрос не о том как решить одну из промежуточных проблем, а какую именно задачу решаешь?

    Если изначальная задача - получить доступ к современному искусственному интеллекту в России, то она решается:
    1. топать к китайцам (доступны в россии)
    * www.deepseek.com , уровень сравним с топовыми (может медленнее), где то даже бесплатно
    * chat.qwen.ai, активно не пользовался, на среднем уровне
    у обоих есть и веб и мобильные приложения, работают без проблем.
    Возможно будет не просто оплатить (доступно в россии через alipay)
    2. долго и упорно бодаться с роботами, выявляющими посредников и топать к google/openai
    * вам нужен мобильный номер, вне стран блокировки
    * вам нужна банковская карта visa/mastercard вне стран блокировки
    * вам нужен vpn, вне стран блокировки
    * на android еще нужно будет сменить регион на не россия, часто это не сделаешь, а если гугл увидит что вы жульничаете, сменит его автоматически
    в некоторых случаях можно воспользоваться посредниками, никого не посоветую, мой опыт не очень успешный (банк карта посредники крали деньги, мало но 10$ есть 10$, чужие мобильные работали не долго, а vpn я и сам настрою)
    Проблема в том что тот же гугл/openai финансово заинтересован не кормить халявщиков, они уже вскормили deepseek (по слухам большую часть обучающих данных компания нагенерировала с помощью openai, правда там было еще куча крутых решений по оптимизации расходов на дообучение чуть ли не на пару порядков дешевле, так что они все равно круты) и продолжать кормить конкурентов они не хотят, поэтому палки в колеса будут вставлять так или иначе и любые решения будут не долговечны
    3. найти посредника, который решил большую из этих проблем и заплатить ему
    * так как openrouter.ai предоставляет большую часть нужного в готовом виде (к сожалению без realtime api и генерации изображений, но мне нужен был только api), я их прорекламирую. Для работы требуется любой vpn/прокси (я арендую vps-ку и использую socks прокси на базе ssh -D1080 стоимость смотреть тут lowendstock), оплата в криптовалюте (извините но наша страна превращается в северную корею, и без vpn и без криптовалюты ну просто никуда)
    Будут доступны топовые модели (например openai:gpt-4.1 со встроенным поиском по интернету, или openai:o3 с размышлениями, или anthropic:claude sonnet 4, или гугловские gemmini pro... и вообще любые открытые что бы перед тем как решать, стоит ли их локально использовать, протестировать)
    4. запустить локально
    * к сожалению, даже со всеми возможными ухищрениями deepseek r1/v3 локально потребуют порядка 400гб ram при скорости генерации единицы токенов в секунду, что даст ответ через десятки минут (а рассуждения - порядка часа), можно запускать с ssd, тогда пойдет вообще на любом железе со скоростью порядка 0.1 токен в секунду (но можно делать одновременно десятки-сотни запросов, поднимая итоговую суммарную скорость до тех же единиц-десяток токенов в секунду), особого смысла в этом извращении я не вижу, но возможность есть
    * использовать слабые локальные модели, которые милостливо стали доступны от топов бесплатно. На текущий момент лучшие (требуют порядка 64гб ram это практически всем легко доступно):
    * microsoft phi4 и phi4-reasoning (есть еще multimodel но ее качество я не пробовал и не запустить ее типовыми утилитами)
    * qwen3-30b-a3b она же простая она же reasoning, очень интересная модель, быстрая на процессоре, средняя по качеству
    * gemma3-27b/14b мультимодальная, требует +24gb ram

    самое простое запускать с помощью lmstudio на компьютере, он же скачает, настроит, запустит, предупредит чего не хватает и т.п, красивый интерфейс,.. он дает openai совместимый api, есть куча готовых мород, включая встроенную (там просто доступ по умолчанию только 127.0.0.1:1234 но вроде бы в виндовой версии можно менять), это значит можно настроить заранее vpn до дома и с мобильника открывать свой ИИ
    Ответ написан
  • Каким бесплатным ПО бэкапить большие файлы под Windows с дедупликацией?

    @rPman
    странно, в документации к rsync написно что delta-algorithm работает по умолчанию, можно задать размер блока
    --block-size=SIZE, -B
    This forces the block size used in rsync's delta-transfer algorithm to a fixed value. It is normally selected based on the size of each file being updated. See the technical report for details.

    Beginning in 3.2.3 the SIZE can be specified with a suffix as detailed in the --max-size option. Older versions only accepted a byte count.

    включить/выключить опциями:
    --whole-file, -W
    This option disables rsync's delta-transfer algorithm, which causes all transferred files to be sent whole. The transfer may be faster if this option is used when the bandwidth between the source and destination machines is higher than the bandwidth to disk (especially when the "disk" is actually a networked filesystem). This is the default when both the source and destination are specified as local paths, but only if no batch-writing option is in effect.

    --no-whole-file, --no-W
    Disable whole-file updating when it is enabled by default for a local transfer. This usually slows rsync down, but it can be useful if you are trying to minimize the writes to the destination file (if combined with --inplace) or for testing the checksum-based update algorithm.
    Ответ написан
    Комментировать
  • Можно ли использовать чужой алгоритм в составе своих?

    @rPman
    Внизу странички есть лицензия
    Материалы распространяются под CC BY-SA
    https://creativecommons.org/share-your-work/cclicenses/

    Алгоритмы в россии не патентуются, в отличии от их реализации в программе.
    Система патентования запутанная, сложная.. но просто математические выкрутасы точно не патентуются. Тем более тема однозначно не подходит для коммерческой реализации,.. вот если кто то создаст на основе этого алгоритма крутую железку, которая будет в 2 раза быстрее перемножать числа, тогда да, вот ЭТУ реализацию можно патентовать
    Ответ написан
    1 комментарий
  • Безопасно ли использовать get.activated.win?

    @rPman
    конечно нет

    что бы было безопасно, загружаешь скрипт локально, пропускаешь его через ИИ, там будут еще скрипты загружаемые, просишь ссылку, загружаешь и этот скрипт, прогоняешь в этом же окне, и только тогда, сохраняешь локально и запускаешь (скрипты ты видишь, но сайт может персонально тебе отдать содержимое, отличающееся от того что отдавал другим, да там просто по user agent отличит браузер от powershel загрузчика и отдаст разный контент)

    p.s. 3 года назад о таком можно было только мечтать, приходилось доверять ну совсем полностью, а тут есть шансы (порядка 70%) что ИИ найдет бекдоры (на искусственно добавляемые для теста он находил, причем я тестировал локальные типа phi4)
    Ответ написан
    Комментировать
  • Откуда у дисков в windows взялось двоеточие и зачем оно нужно?

    @rPman
    Самое великое историческое легаси, которое тянется со времен CP/M (который был до MS DOS) да и кучи тогдашних ос типа apple dos/Commodore c64/ , в 1970-ых
    Там не было каталогов но были устройства, и файлы именовались "буква устройства" : "имя файла" ну а в DOS добавили каталоги через "\"

    Кстати \ был, потому что в первой версии dos не было каталогов но уже были ключи командной строки у утилит через /, и когда добавили каталоги, что бы не терять совместимость, сделали \

    От туда же и учет больших и маленьких букв в файловой системе как одинаковых, потому что в тогдашнем fat не было длинных имен (11 символов на имя), и эту кстати лицензионную ловушку майкрософт заложили уже в win95, благодаря которой надоили со всего мира миллиарды.
    Ответ написан
    1 комментарий
  • Какой гипервизор выбрать?

    @rPman
    Лицензионно 'чистый' только linux + kvm (в качестве запускалки - libvirt+virtmanager плюс модуль lxc до установить), может еще opensource вариант virtualbox (без расширения от oracle), в windows даже с рабочими ревизиями идет своя виртуалка (ее тоже можно использовать без ограничений), но она заметно менее удобная да и ресурсы такая хост машина будет жрать сильно больше linux

    Само собой вместо linux можно поставить proxmox, потому что основано оно на debian но это менее гибко (хост машина не будет доступна ни для чего, с организационной точки зрения это лучше, но бывает что наличие хост linux системы все же нужно, например для доступа к gpu без накладных расходов)

    Если хост машина и виртуальная будут linux, то настоятельно рекомендую паравиртуализацию lxc, на ее работу ресурсы тратиться не будут.
    Ответ написан
    8 комментариев
  • Как оставить активным GUI на сервере при выходе?

    @rPman
    я обходил проблему дисконнекта каскадированием подключений, для каждого подключения заводится дополнительный пользователь, единственная задача которого подключиться по rdp (localhost с нужным пользователем), в этом случае дисконнект этого дополнительного пользователя не затронет окно основного.

    еще есть ibik aster, одна машина - много сессий (платная), в отличии от rdp работает на рабочих станциях (это дешевле на пару порядков чем сервер), позволяет поднимать много сессий (десяток точно) и главное это настоящая консоль а не виртуальный rdp, с поддержкой 3d графики и прочего.

    подумайте о запуске приложения на linux (wine/proton), там нет никаких проблем и искусственных ограничений (любое количество xserver, например xvfb подключаться к каждому по vnc или xephyr, где каждая сессия просто в окне)
    Ответ написан
    Комментировать
  • Как проверять файлы в S3 хранилище?

    @rPman
    Сохраняя сразу в s3 хранилище, увеличиваешь стоимость в ~два раза (каждый файл будет загружен и выгружен, т.е. дважды), а у амазона к примеру стоимость сетевого трафика грустная. И да, проверить по кусочкам файл не получится, антивирусу файл нужен целиком. В принципе на сколько я знаю есть s3fs-fuse - файловая система где файлы грузятся с s3 прозрачно, возможно, если антивирус не проверяет все типы файлов, а проверяемый является архивом, то это может дать какой то бонус, но нужно еще удостовериться что эта файловая система так умеет... да и не стоит так усложнять все.

    Оперативка дороже диска, примерно на порядок (особенно с ростом размера файлов), с другой стороны до сотен мегабайт хватит держать файл в оперативке. Не вижу особой проблемы складывать файл на диск, проверять его и только после этого заливать в хранилище. Поэтому складывай на диск, проверяй, можешь параллельно запустить сохранение в s3 (потом прервешь или удалишь загруженное, если обнаружишь вирус).

    docker не про безопасность а про изоляцию (для организации специфический версий библиотек), он не нужен именно для проверки файла на вирусы
    Ответ написан
  • Какие возможны проблемы при установке linux системы на гибрид планшета и ноутбука?

    @rPman
    У меня был планшетник+отстегивающаяся клавиатура на этом процессоре (жаль, сломался экран, чинить дороже нового), на нем прекрасно шел linux (кажется 18.04 ubuntu) из странного, какой то непонятный процесс изредка отжирал одно ядро процессора (что то там intel в названии) я не разбирался тогда, посчитал его частью стандартных драйверов... особо ничего не настраивал но не работало hibernate (обычный сон работал), сенсорный экран и wifi/bluetooth тоже работали.

    p.s. обычно linux не легче windows, но у вас ЕСТЬ возможность сделать его легким, в отличии от windows, и при этом продолжать получать обновления и свежий софт.
    Ответ написан
    Комментировать
  • Как сделать искуственный интеллект на компьютере и подключить к нему камеры, микрофоны?

    @rPman
    * детектируешь голос (в любом случае будешь делать что бы сэкономить)
    простым алгоритмом, не требующим особой энергии, нужно понять, когда кто-либо говорит, для этого достаточно разложения (алгоритмы VAD - voice activity detection), там вариантов куча, от простого подсчета амплитуды (накапливаешь на интервале, при превышении - считаешь что есть речь) или спектрального (то же самое но на узкой полосе частот человеческой речи) до полноценной миниатюрной нейронной сети (десятки весов, пара слоев), которая будет эффективно работать на встроенных в процессор технологий (именно так смартфоны все слушают даже в заблокированном состоянии и энергии хватает на несколько часов)
    * транскрибация голоса в текст
    так уж получилось, что с текстом работать гораздо удобнее чем с аудио, при этом конечно теряется куча информации (интонация, эмоции, владелец голоса и т.п.), но часть информации можно сохранять еще с этапа спектрального анализа
    * обработка текста
    от простых классических алгоритмов (они могут быть сложные в смысле размера но простые для понимания)
    'включи/выключи камеру (номер камеры)' -> включаем/выключаем камеру номер такая-то
    до использования текстовых ИИ
    там все не так просто, языковые особенности вынуждают либо закладывать падежи, времена, род и т.п. в алгоритмы либо забивать сотни вариантов одной и той же команды.
    * инструменты настройки и контроля за управляемым оборудованием
    когда у тебя один микрофон, одна камера и одна лампочка, не нужно где то хранить сколько их, где они находятся, и как их настраивать, один раз вручную настроил а код работает с абстрактной - просто камера, но когда камер лампочек много, их нужно как то идентифицировать, как то ими управлять (у тебя одни камеры сяоми с одним хакнутым api и пара своих поделок со своим) следить что они работают,..
    * инструменты настройки логики управления
    добавить свою команду (надоело говорить 'выключи свет, закрой шторы' а хочешь - 'подготовка ко сну'), переименовать "камера 7" на "камера в спальне", ввести возможность контроля за владельцем голоса (типа если ты скажешь 'выключи свет' то действовать, а если кто то другой, сказать - 'не хочу') и за ним инструменты авторизации (например приложение на смартфоне, ожидающее двойное нажатие кнопки громкости для подтверждения и вибро для обратной коммуникации) и миллион других тонкостей, без которых твой умный дом никому будет не нужен.

    И на этом этапе, использование готовой ИИ, которой даешь ручки управления, скидываешь сырой текст и ждешь что все будет работать как ожидается, может столкнуться с техническими ограничениями размера промпта.

    p.s. недавно появился openai realtime api и мультимодальная модель gpt4o-realtime, умеющая текст и голос, там реализовали базовый инструментарий для реализации голосовых агентов, работающих в реальном времени, но сам не пробовал (только то что майкрософт предлагает голос-голос без ручек к инструментам, прикольно, но это игрушка)

    p.p.s. майкрософт, когда релизила phi4, тихонько в уголке выложили свою мультимодальную модель с тремя модельностями text-image-audio. Тихо, наверное потому что из-за трех модальностей оно получилось не очень? я не пробовал
    Ответ написан
    Комментировать
  • Как перевести HTML-текст, не теряя теги?

    @rPman
    Вот такой незамысловатый промпт у меня небольшие html странички переводит без видимых проблем, пробовал openai:gpt-4.1
    Ты переводчик с русского на английский, умеешь переводить тексты любого типа, в т.ч. с html форматированием, без потери этого форматирования и с сохранением пунктуации (в т.ч. и ошибок), например
    ```
    <p>я <b>тебя</b> люблю</p>
    ```
    выдавай перевод
    ```
     <p>i love <b>you</b></p>
    ```
    Теперь на каждое мое сообщение отвечай его переводом на английский
    Ответ написан
  • Нейросеть на ПК для обработки книжной литературы с последующей выдачей ответов по запросам?

    @rPman
    Из-за технических ограничений современного ИИ, данная задача решается плохо. Причина - gpt это как человек, страдающий антероградной амнезии, у него есть кратковременная память (контекстное окно) но ее размер сильно ограничен (стоимость простого ответа - квадрат от размера контекстного окна, а обучение - куб, есть лайфхаки, уменьшающие эти требования но они уменьшают и потенциальные возможности, связанные с данными на больших 'расстояниях'). А еще из-за не совершенства технологии, то что ИИ уже узнало, пока училось, у нее 'путается в голове' и оно галлюцинирует.

    В качестве примера, есть llama scount с 10кк окном контекста, но она потребует 18терабайт памяти (gpu естественно) для работы, и даже тут в нее влезет не так много документов

    Готовое не посоветую, это сейчас топ исследований, гитхаб завален всякими поделками chatgpt с RAG, со средним качеством. Вся задача сводится к поиску частей документов, которые хоть как то подходят к ответу, и сваливание их в итоговый запрос, что само собой не может дать хорошего результата (нужные данные могут никак не быть близко по смыслу с вопросом). Есть попытки строить граф знаний, но это форма представления но не алгоритм разбора сырых данных. Технологии, которые позволяют строить индекс на основе смыслов - построение embendings векторов (вот отвечал списком ключевых слов для поиска)

    Если каждый отдельный документ помещается в контекстное окно, то проблема решается итеративно - берем наш исходный вопрос, и задаем его ИИ для каждого документа по отдельности, можно добавить что то типа 'для решения нашей задачи есть ли в этом документе что то полезное?'. В последствии повторить вопрос уже для тех документов или их частей, которые оказались полезны. Можно даже заранее строить индекс из документов, являющийся краткой самморизацией его содержимого (или по главам). Этот подход работает но очень дорогой/медленный (можно минутами-часами ждать ответа).

    Обработка больших данных с помощью ИИ это что то типа чата, "системный промпт + пример + ответ + пример +... + часть исходных данных -> ответ", причем полученные предыдущие ответы могут пойти в примеры.. это multishot подход значительно повышает качество ответа до сих пор. Ты как бы пробегаешь по всему документу, где после подачи его части ИИ делает свой комментарий - о это полезно, или это нам не нужно... на практике там конечно еще рассуждающая часть и итеративный процесс может состоять из нескольких шагов для каждой части - типа сначала спрашиваешь о чем тут говорится (это можно закешировать), позже добавляешь вопрос, полезно ли это для нашего ответа, а так как многие модели научены размышлять, придется еще раз спросить - ответь да/нет (тут можно включить structured outputs, зафиксировав формат ответа). По мере анализа сохраняешь ссылки на те части документа, что оказались полезны, и уже их можно использовать повторно для итогового диалога.

    С анализом между документами еще хуже (когда для ответа требуется информация, которую можно получить проанализировав сразу несколько документов, но по отдельности они бесполезны), у топовых ИИ можно можно просить задавать вопросы, т.е. ии может просить дать недостающую информацию (точно помню как anthropic:sonnet пытал написать утилиту работы с guithub api подавая ему заведомо недостаточно данных, так вот правильно составленный промпт позволит ии отказываться давать ответ пока информации не станет достаточно),.. но трудоемкость получения результата будет еще выше - ведь тут для каждой подзадачи придется снова пробегать по документам или их самморизации.
    Ответ написан
    Комментировать
  • Как на C++ вывести результаты SQL-запроса в Excel?

    @rPman
    Первый же ответ в документацию из гугла
    Ответ написан
    2 комментария
  • Как написать скрипт на питоне который будет присылать сообщение в телеграм бот об включении, выключении компьютера, неудачной попытки входа в учетку?

    @rPman
    У тебя следующие задачи, которые решать придется по разному:
    * детектирование включения машины
    решается простой фиктивной службой systemd startup
    * детектирование выключения машины
    можно конечно тоже службой shutdown, но будут события только корректных выключений, а принудительные перезагрузки резетом или например ctrl+alt+shift+pause .. r (которая работает даже если модули ядра повиснут), не отловит.
    Тут можно поставить скрипт, анализирующий работу машины на соседнюю в сети, вариантов тьма.
    * попытки входа в систему
    В общем случае это в /var/log/auth.log там будет все, и использование sudo/su, и запуск процессов cron и служб (с указанием пользователя) и ssh подключения и тьма тьмущая всего что так или иначе затрагивает авторизацию, что и является 'вход в систему', там же можно посмотреть что пишет lightdm на попытки входа в gui

    Мониторить попытки входа придется скриптом, периодически читающим файл (осторожно tail -f /var/log/auth.log | my_script не отследит ротацию логов, поэтому лучше самому следить за датой последнего изменения файла и читать его с позиции, на которой остановился в прошлый раз ну или с нуля)
    upd. век живи век учись, ключ tail -F корректно будет работать с ротацией логов

    Если делать 'по феншую', то лучше работать с подсистемой сбора событий, в python с помощью python-systemd - journal например фильтруя по _SYSTEMD_UNIT=sshd.service и _COMM=sshd (сам я не делал, посмотрел что можно и в памяти отложил, сейчас ИИ спросил, да где то так и надо)

    * отправка сообщений в telegram
    можно конечно использовать какую-нибудь библиотеку, многословно, красиво... а можно отправить один http запрос по api telegram, кода минимум, наверное все так в своих скриптах делают
    https://api.telegram.org/bot<TOKEN>/sendMessage?chat_id=<CHAT_ID>&text=Hello%20World
    Ответ написан
    5 комментариев