События сегодня

Sonatype раскрывает взгляды лидеров DevOps и SecOps на генеративный ИИ

Хотя технологическое сообщество по-прежнему разделилось во мнениях относительно потенциала генеративных инструментов искусственного интеллекта, существует консенсус в отношении того, что их влияние на отрасль сравнимо с внедрением облачных технологий.

Инженеры-программисты используют генеративный искусственный интеллект для изучения библиотек, создания нового кода и улучшения процесса разработки, а специалисты по безопасности приложений используют его для анализа кода и тестирования безопасности.

Недавний опрос, проведенный Sonatype в США, проливает свет на то, как генеративный ИИ влияет на инженеров-программистов и жизненный цикл разработки программного обеспечения.

В опросе приняли участие 400 руководителей DevOps и 400 SecOps, что выявило подавляющее распространение генеративного искусственного интеллекта. Однако некоторые респонденты выразили обеспокоенность по поводу рисков безопасности и потенциального увольнения из-за ИИ.

Ролевые перспективы

Руководители DevOps и SecOps разделяют обеспокоенность по поводу безопасности (52%) и потери рабочих мест (49%) в качестве своих главных опасений в отношении генеративного ИИ. Эти опасения отражают продолжающиеся дебаты о потенциале ИИ заменить технические роли.



Кроме того, значительная часть (74%) респондентов чувствуют необходимость внедрения генеративного искусственного интеллекта, причем руководители DevOps ощущают это давление сильнее, чем их коллеги.

Обе группы согласны с тем, что авторы должны владеть авторскими правами на результаты, созданные ИИ, в отсутствие закона об авторском праве (40%), и они поддерживают предоставление компенсаций разработчикам (90%).

Большинство респондентов (97%) в настоящее время в той или иной степени используют генеративный ИИ в своих рабочих процессах: 84 процента используют его регулярно, а 41 процент — ежедневно.

Самые популярные инструменты генеративного искусственного интеллекта

Инструменты генеративного искусственного интеллекта набирают популярность: инженеры и службы безопасности широко используют их для решения различных задач.

ChatGPT является предпочтительным инструментом для 86 процентов респондентов, за ним следует GitHub Copilot с 70 процентами.

Различия в настроениях

В то время как 61 процент руководителей DevOps считают, что эта технология преувеличена, 90 процентов руководителей SecOps считают, что ее влияние на отрасль будет аналогично влиянию облачных технологий.

Руководители отделов безопасности также сообщают о более значительной экономии времени (57% экономят не менее 6 часов в неделю по сравнению с 47% для DevOps) и более высоком уровне полного внедрения (45% против 31%).

Проблемы безопасности

Неудивительно, что проблемы безопасности преобладают в обеих группах. 77 процентов руководителей DevOps и 71 процент руководителей SecOps чувствуют необходимость использовать генеративный искусственный интеллект, несмотря на опасения по поводу безопасности.

Лидеры DevOps более пессимистичны в отношении того, что технология может привести к увеличению количества уязвимостей безопасности (77%), особенно в коде с открытым исходным кодом (58%). Они также ожидают, что это усложнит обнаружение угроз (55%).

«Эра искусственного интеллекта ощущается как первые дни открытого исходного кода, как будто мы строим самолет во время полета с точки зрения безопасности, политики и регулирования», — комментирует Брайан Фокс, соучредитель и технический директор Sonatype.

«Внедрение широко распространено по всем направлениям, и цикл разработки программного обеспечения не является исключением. Хотя дивиденды от производительности очевидны, наши данные также раскрывают тревожную реальность: угрозы безопасности, создаваемые этой все еще зарождающейся технологией.

«С каждым инновационным циклом возникает новый риск, и крайне важно, чтобы разработчики и руководители по безопасности приложений смотрели на внедрение ИИ с учетом безопасности и защищенности».

Ответственное использование и регулирование

Организации решают проблемы с помощью генеративной политики искусственного интеллекта и с нетерпением ждут регулирования в сфере, где отсутствует комплексное управление.

Примечательно, что 71 процент респондентов сообщают, что их организации разработали политику генеративного использования ИИ, а 20 процентов находятся в процессе ее разработки.

Что касается регулирования, 15 процентов руководителей DevOps считают, что регулирование должно осуществляться государством, в то время как шесть процентов руководителей SecOps разделяют эту точку зрения. Большинство (78% специалистов по безопасности и 59% специалистов по DevOps) полагают, что роль в регулировании должны играть как правительство, так и отдельные компании.

Авторские права и компенсация

Респонденты согласны с тем, что разработчики должны получать компенсацию (90%) за свой код, если он используется в артефактах с открытым исходным кодом в рамках LLM. Более того, 67 процентов считают, что организация, использующая код в своем программном обеспечении, должна платить разработчикам.

Поскольку генеративный ИИ продолжает развиваться, важно будет найти баланс между его потенциальными преимуществами и необходимостью ответственного и этического внедрения.

Вы можете найти полную копию отчета Sonatype. здесь.

(Фото Agence Olloweb на Unsplash)

Смотрите также: Niantic 8th Wall расширяет возможности WebAR с помощью мощных модулей GenAI

Sonatype раскрывает взгляды лидеров DevOps и SecOps на генеративный ИИ

Хотите узнать больше об искусственном интеллекте и больших данных от лидеров отрасли? Посетите выставку AI & Big Data Expo, которая проходит в Амстердаме, Калифорнии и Лондоне. Это комплексное мероприятие приурочено к Неделе цифровой трансформации.

Узнайте о других предстоящих мероприятиях и вебинарах в области корпоративных технологий, проводимых TechForge, здесь.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»