Статьи

Фейки с искусственным интеллектом представляют угрозу и для бизнеса – вот почему

Пока технологические гиганты конкурируют за распространение искусственного интеллекта в массы и владение растущим рынком, гонка вооружений искусственного интеллекта способствует увеличению количества «фейкового» видео- и аудиоконтента, который часто выглядит или звучит убедительно законно, но на самом деле является мошенническим искажением фактов. Согласно новому отчету, они также влияют на бизнес.

Фейки — это созданные ИИ творения, такие как изображения, видео и аудио, которыми манипулируют, чтобы обмануть людей. Мошенники используют фейки для мошенничества вымогательство или нанести ущерб репутации. Распространение Инструменты искусственного интеллекта упростили мошенникам создание фейкового контента, как никогда.

Знаменитости и другие общественные деятели без их согласия вставляются в искусственные, а иногда и откровенные кадры, что иногда становится вирусным или может вызвать панику в социальных сетях. В отчетеглобальная бухгалтерская фирма КПМГ писали, что бизнес-сектор также не застрахован от угрозы дипфейков.

Дипфейковый контент может использоваться в атаках социальной инженерии и других видах кибератак против компаний, пишет KPMG, при этом такой контент также может влиять на репутацию компаний и их руководителей. Ложные заявления представителей компании также могут быть использованы в схемах обмана клиентов или убеждения сотрудников предоставить информацию или перевести деньги незаконным лицам.

КПМГ привел пример 2020 годакогда менеджера филиала гонконгской компании обманом заставили передать мошенникам средства компании на сумму 35 миллионов долларов, полагая, что его начальник разговаривал по телефону и приказывал ему это сделать. Вместо этого это было клонированное ИИ воспроизведение голоса руководителя — часть сложной схемы по вымогательству денег у фирмы.

«Последствия кибератак с использованием синтетического контента — цифрового контента, который был создан или которым манипулировали в гнусных целях — могут быть обширными, дорогостоящими и иметь множество социально-экономических последствий, включая финансовые, репутационные, сервисные и геополитические, среди прочего. », — говорится в сообщении.



Видеозапись дипфейка, на которой изображены Дональд Трамп, арестованный в начале этого года, Папа Франциск в роскошном наряде Balenciaga и Илон Маск, пропагандирующий мошенничество с криптовалютой, стали вирусными в прошлом году, поскольку технология дипфейков улучшилась благодаря развитию инструментов искусственного интеллекта.

«Будь то дешевые подделки или глубокие подделки, экономическая модель существенно изменилась благодаря генеративным моделям искусственного интеллекта», — пишет KPMG.

Помимо упомянутых выше общественных деятелей, среди знаменитостей, чьи портреты были украдены и использованы для подделки видеоматериалов, числятся актриса Эмма Уотсон и музыкант Тейлор Свифт. Но КПМГ бьет тревогу по поводу потенциального воздействия на бизнес и его иногда видных лидеров.

«В качестве фактора риска фальсификация контента вызывает беспокойство не только в социальных сетях, сайтах знакомств и индустрии развлечений — теперь это проблема совета директоров», — заявили в KPMG. «Например, почти все респонденты (92%) недавнего опроса KPMG о генеративном ИИ, в котором приняли участие 300 руководителей из разных отраслей и географических регионов, заявили, что они испытывают умеренную или очень сильную обеспокоенность по поводу рисков внедрения генеративного ИИ».

Не только компании и знаменитости сталкиваются с ростом качества и количества фейковых видео в Интернете. Правительства и регулирующие органы также учитывают потенциальное влияние на общество и выборы, в то время как создатели таких инструментов ИИ взвешивают их потенциальное негативное влияние.

На прошлой неделе Федеральная избирательная комиссия США, предвидя использование фейков на выборах 2024 года, подала петицию о запрете использования искусственного интеллекта в предвыборной рекламе.

В случае одобрения агентство внесет поправки в действующие правила, касающиеся мошеннического искажения «учетных данных кампании», и разъяснит, что запрет распространяется на намеренно вводящую в заблуждение предвыборную рекламу с использованием искусственного интеллекта.

«Регулирующие органы должны продолжать понимать и учитывать влияние развивающихся угроз на существующие правила», — сказал Декрипт. Мэтью Миллер, руководитель отдела кибербезопасности KPMG. «Предлагаемые требования к маркировке и водяным знакам для контента, созданного искусственным интеллектом, могут оказать положительное влияние».

В июле исследователи Массачусетского технологического института предложили вносить изменения в код крупных моделей распространения, чтобы снизить риск глубоких подделок, добавляя крошечные изменения, которые трудно увидеть, но в конечном итоге меняют работу моделей, заставляя их генерировать изображения, которые не выглядят реальными. Между тем, Мета недавно приостановил выпуск инструмента искусственного интеллекта из-за его потенциальной возможности глубокой подделки.

Шумиха вокруг креативности инструментов генеративного искусственного интеллекта умерилась осознанием того, что они аналогичным образом могут создавать возможности для вредоносного контента. В конечном итоге, на фоне быстрого совершенствования таких инструментов, Миллер призвал всех быть бдительными в отношении потенциального фейкового контента.

«Общественность должна сохранять постоянную бдительность при взаимодействии через цифровые каналы», — сказал он Decrypt. «Ситуационная осведомленность и здравый смысл играют важную роль в предотвращении инцидента. Если что-то «кажется неправильным», скорее всего, это вредоносная деятельность».


Подборка статей по криптовалютам и технологии блокчейн. Подпишитесь на нас в социальных сетях.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»