Статьи

Думаете, инструменты ИИ не собирают ваши данные? Подумайте еще раз

Стремительный рост генеративного искусственного интеллекта произвел настоящую технологическую сенсацию благодаря ориентированным на пользователя продуктам, таким как ChatGPT от OpenAI, Dall-E и Lensa. Но бум в области удобного ИИ произошел потому, что пользователи, похоже, игнорируют или не знают о рисках для конфиденциальности, которые представляют эти проекты.

Однако посреди всей этой шумихи международные правительства и крупные технологические деятели начинают бить тревогу. Из соображений конфиденциальности и безопасности Италия только что ввела временный запрет на ChatGPTпотенциально может привести к аналогичной блокировке в Германии. В частном секторе сотни исследователей ИИ и лидеров технологий, включая Илона Маска и Стива Возняка, подписал открытое письмо призывая к шестимесячному мораторию на разработку ИИ после GPT-4.

Относительно быстрые действия по сдерживанию безответственного развития ИИ заслуживают похвалы, но более широкий спектр угроз, которые ИИ представляет для конфиденциальности и безопасности данных, выходит за рамки одной модели или разработчика. Хотя никто не хочет обрушивать на парадигму, меняющую парадигму возможностей ИИ, необходимо устранить ее недостатки прямо сейчас, чтобы избежать катастрофических последствий.

Шторм конфиденциальности данных искусственного интеллекта

Хотя было бы легко сказать, что OpenAI и другие крупные технологические проекты ИИ несут полную ответственность за проблему конфиденциальности данных ИИ, эта тема была затронута задолго до того, как она стала мейнстримом. До этого подавления ChatGPT были скандалы с конфиденциальностью ИИ — просто это произошло в основном вне поля зрения общественности.

Только в прошлом году Clearview AI, компании по распознаванию лиц на основе искусственного интеллекта, которая, как сообщается, используется тысячами правительств и правоохранительных органов с ограниченным доступом к информации, была запрещена к продаже технологии распознавания лиц частному бизнесу в Соединенных Штатах. Clearview также была оштрафована на 9,4 миллиона долларов в Великобритании за незаконную базу данных распознавания лиц. Кто сказал, что ориентированные на потребителя проекты визуального ИИ, такие как Midjourney или другие, нельзя использовать для аналогичных целей?

Clearview AI, компания, занимающаяся технологиями распознавания лиц, подтвердила, что мое лицо есть в их базе данных. Я отправил им снимок головы, и они ответили этими фотографиями, а также ссылками на то, откуда они взяли фотографии, включая сайт под названием «Insta Stalker». pic.twitter.com/ff5ajAFlg0



— Томас Дейгл (@thomasdaigle) 9 июня 2020 г.

Проблема в том, что они уже были. Множество недавних скандалов с поддельной порнографией и фальшивыми новостями, созданных с помощью потребительских продуктов ИИ, только усилили необходимость защиты пользователей от злонамеренного использования ИИ. Это берет гипотетическую концепцию цифровой мимикрии и делает ее вполне реальной угрозой для обычных людей и влиятельных общественных деятелей.

Генеративные модели ИИ в основном полагаются на новые и существующие данные для создания и расширения своих возможностей и удобства использования. Это одна из причин, почему ChatGPT так впечатляет. При этом модель, основанная на новых входных данных, должна откуда-то получать эти данные, и некоторые из них неизбежно будут включать личные данные людей, которые ее используют. И этот объем данных может быть легко использован не по назначению, если им завладеют централизованные организации, правительства или хакеры.

Итак, при ограниченных возможностях всеобъемлющего регулирования и противоречивых мнениях о развитии искусственного интеллекта, что теперь могут делать компании и пользователи, работающие с этими продуктами?

Что могут сделать компании и пользователи

Тот факт, что правительства и другие разработчики поднимают флаги вокруг ИИ, на самом деле указывает на прогресс по сравнению с ледяным темпом регулирования приложений Web2 и криптовалют. Но поднятие флагов — это не то же самое, что надзор, поэтому сохранять чувство безотлагательности без паники важно для создания эффективных правил, пока не стало слишком поздно.

Запрет ChatGPT в Италии — не первый удар правительств по ИИ. ЕС и Бразилия принимают законы, разрешающие определенные виды использования и разработки ИИ. Точно так же вероятность утечки данных из генеративного ИИ вызвала ранние законодательные действия со стороны правительства Канады.

Проблема утечки данных ИИ настолько серьезна, что OpenAI даже пришлось вмешаться. Если вы открыли ChatGPT пару недель назад, вы могли заметить, что функция истории чата отключена. OpenAI временно отключил эту функцию из-за «серьезной проблемы с конфиденциальностью», когда были раскрыты чужие запросы и платежная информация.

Хотя OpenAI эффективно потушил этот пожар, может быть трудно доверять программам, возглавляемым гигантами. Веб2сократить свои команды по этике ИИ, чтобы активно поступать правильно.

На общеотраслевом уровне стратегия развития ИИ, которая больше фокусируется на федеративном машинном обучении, также улучшит конфиденциальность данных. Федеративное обучение — это совместная технология искусственного интеллекта, которая обучает модели искусственного интеллекта без доступа к данным, вместо этого используя несколько независимых источников для обучения алгоритма с их собственными наборами данных.

Что касается пользователей, то совсем необязательно становиться сторонником искусственного интеллекта и вообще отказываться от использования какой-либо из этих программ, и, вероятно, довольно скоро это станет невозможным. Но есть способы быть умнее в отношении того, к какому типу генеративного ИИ вы предоставляете доступ в своей повседневной жизни. Для компаний и малых предприятий, внедряющих продукты ИИ в свою деятельность, еще важнее отслеживать, какие данные вы передаете алгоритму.

Вечная поговорка о том, что когда вы используете бесплатный продукт, ваши личные данные являются продукт по-прежнему относится к ИИ. Имея это в виду, вы можете пересмотреть, на какие проекты ИИ вы тратите свое время и для чего вы на самом деле его используете. Если вы были частью всех тенденций в социальных сетях по размещению ваших фотографий на сомнительных веб-сайтах с искусственным интеллектом, подумайте о том, чтобы пропустить это.

Всего через два месяца после запуска ChatGPT набрал 100 миллионов пользователей — ошеломляющая цифра, которая ясно указывает на то, что наше цифровое будущее будет основано на искусственном интеллекте. Но, несмотря на эти цифры, ИИ еще не вездесущ. Регуляторы и компании должны использовать это в своих интересах, чтобы активно закладывать основы для ответственной и безопасной разработки ИИ, а не гнаться за проектами, когда они становятся слишком большими, чтобы их можно было контролировать. В своем нынешнем виде развитие генеративного ИИ не сбалансировано между защитой и прогрессом, но еще есть время, чтобы найти правильный путь, чтобы гарантировать, что информация о пользователях и конфиденциальность останутся на переднем крае.


Подборка статей по криптовалютам и технологии блокчейн. Подпишитесь на нас в социальных сетях.

Информация для Вас была полезна?
0
0
0
0
0
0
0

Похожие статьи

Кнопка «Наверх»