@jimmyCim

Применение ai ассистентов на работе?

Возник вопрос безопасности использования ai ассистентов, например сервиса codeium.

Насколько безопасно пользоваться такими инструментами при разработке софта? Какие меры предосторожности есть? Анализируют ли подобные инструменты код проекта, могут ли "стянуть" креды которые описаны в local.env к примеру. Ну и в общем интересуют мысли комрадов на тему кодогенерации.
  • Вопрос задан
  • 198 просмотров
Решения вопроса 4
Насколько безопасно пользоваться такими инструментами при разработке софта?
На 42.

Какие меры предосторожности есть?
Шапочка из фольги.

Анализируют ли подобные инструменты код проекта
А зачем бы они тогда были нужны, если бы не анализировали? При этом какие-то могут и не анализировать для упрощения собственной жизни или из-за внешних ограничений. Сейчас столько их развелось, что наверняка сказать нельзя. Про каждый инструмент написано на его сайте.

могут ли "стянуть" креды которые описаны в local.env к примеру
Могут. Но заниматься этим специально никто не будет из крупных специализированных компаний. Вдобавок, в local.env у вас и не должно быть каких-то реальных продовых токенов.

Ну и в общем интересуют мысли комрадов на тему кодогенерации.
Камрад пишется через "а".
AI-ассистентов нужно выдавать только опытным разработчикам, потому что они не пишут код, а уменьшают рутину. Их нельзя использовать, если вы не можете написать то же самое самостоятельно - помимо галлюцинаций там могут быть просто ошибки и разработчик должен быть способен распознать и то, и другое.
Судя по ответам тех, кто решает нафармить себе зачем-то рейтинга здесь, перезадавая вопросы ChatGPT, а так же по вопросам тех, кто не поленился, прежде чем придти сюда, сходить в тот же ChatGPT - это редкий навык.
Ответ написан
DevMan
@DevMan
разумное сомнение - критерий истины.

если ссышь, дай в .env локальные креды, а в проде давай реальные отдельно.
кагбе дев и деплой - немного много разное.
Ответ написан
vabka
@vabka
Токсичный шарпист

Анализируют ли подобные инструменты код проекта, могут ли "стянуть" креды которые описаны в local.env к примеру. Ну и в общем интересуют мысли комрадов на тему кодогенерации.


На все вопросы ответ - да, могут.
А ещё они могут использовать сторонние API (тот же openai), которые хранят и могут передавать третьим лицам любые запросы.

По тому в крупных компаниях часто запрещают использование таких сервисов, либо как минимум ставят прокси, который все чувствительные данные маскирует (хотябы токены и ПД).

Как метод предосторожности - воспринимай любые данные, которые попадают в любой обычный ИИ как скомпрометированные.
Ответ написан
Комментировать
@maxinfosoft
Подобную задачу решаю успешно в своей компании установкой локально соответствующих LLM (через docker tgi, vllm). Также написал extention для основных IDE (vscode, jetbrains), которые могут использовать как локальные .gguf-модели, так и работать с локально поднятыми через API.
Ваша задача приватности решается при этом абсолютно.
Ответ написан
Комментировать
Пригласить эксперта
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы
27 апр. 2024, в 13:49
300000 руб./за проект
27 апр. 2024, в 13:30
30000 руб./за проект
27 апр. 2024, в 13:22
600 руб./за проект