Задать вопрос
  • Какой кабель использовать для отладки по USB?

    15432
    @15432
    Системный программист ^_^
    2.0 D+ / D- тоже заизолируйте на всякий случай. Если устройство появляется, то кабель в порядке. Про Raptor Lake не в курсе, это одна из последних моделей, там могли заблокировать отладку после публикаций, лучше пробовать на самых старых процах с поддержкой этого дела.

    По Host-DCI не отлаживал, но с официальным DCI отладчиком интела удавалось к процу подключиться. На всякий случай через ME System Tool включите DCI в соответствующих PCH страпах
    Ответ написан
    6 комментариев
  • Как провести реверс инжиниринг файлу типа png jpd svg?

    saboteur_kiev
    @saboteur_kiev
    software engineer
    Нужно меньше смотреть сериалы и больше читать документацию.

    Копать в сторону библиотеки которая собственно распаковывает и отрисовывает картинку и смотришь, есть ли в этой библиотеке уязвимость, которой можно воспользоваться.

    Просто встроить код в картинку естественно невозможно, это просто набор данных, он не выполняется чтобы ты там не встраивал.
    Но может быть в какой-то программе, которая просматривает картинки, есть уязвимость, типа переполнение буфера, которой можно как-то хитро воспользоваться.
    Вероятность не нулевая, но она очень низкая.

    С другой стороны, судя по тому как ты задаешь вопрос, чтобы попытаться найти подобную уязвимость, тебе сперва нужно лет 5-10 изучать ассебмлер, с++ и алгоритмы работы с современной графикой. Ибо "найти уязвимость" выполняется долгим анализом а не "поиск по файлу"
    Ответ написан
    Комментировать
  • Какую выбрать LLM для быстрого локального запуска?

    @rPman
    llama3-70b и Codestral 22B единственные открытые сетки, которые давали мне адекватный вариант на не простые задачи (я почти не трогал qwen и command r+ а они тоже хороши).

    Чтобы оценить требования памяти в зависимости от размера модели и ее квантизации, полистай сообщения этого бота, например вот для llama70b

    p.s. llama.cpp позволит разместить часть весов в GPU а часть в RAM, это имеет смысл если оперативной памяти чуть чуть не хватает, а квантизация уже на грани понижения качества, я так codestral 22b с квантизацией 5bit на 16gb запускал, указав 48 из 57 слоев на gpu с такими скоростями:
    llama_print_timings:        load time =    1997,65 ms
    llama_print_timings:      sample time =     790,28 ms /   256 runs   (    3,09 ms per token,   323,94 tokens per second)
    llama_print_timings: prompt eval time =   21593,29 ms /  7650 tokens (    2,82 ms per token,   354,28 tokens per second)
    llama_print_timings:        eval time =   33864,88 ms /   255 runs   (  132,80 ms per token,     7,53 tokens per second)
    llama_print_timings:       total time =   55938,24 ms /  7905 tokens
    Ответ написан
    Комментировать