Фрагмент для ознакомления
2
Введение
Искусственный интеллект (ИИ) быстро превратился из футуристической концепции в неотъемлемую часть повседневной жизни. От виртуальных помощников до рекомендательных алгоритмов, ИИ стал новой нормой, проникнув в отрасли и совершив революцию в том, как мы взаимодействуем с технологиями. Преобразовательный потенциал ИИ неоспорим, но не стоит забывать о рисках, которые он в себе несет. Когда мы используем возможности ИИ для автоматизации задач, оптимизации процессов и для принятия решений, мы одновременно делаем себя более уязвимыми, так как становимся зависимыми от алгоритмов, данных, на подлинность которой не всегда можно полагаться. Растущую необходимость в осознании и управлении рисками ИИ невозможно переоценить. С одной стороны – развитие ИИ «подпитывает» инновации, приводя к их улучшению, оптимизации в различных областях человеческой жизни. Сложно найти направление, где ИИ не был бы задействован. Экономика и бизнес, медицина, образование, транспорт, искусство – потенциал использования систем ИИ безграничен. Но это и вызывает обеспокоенность, поскольку оценить последствия такого бесконтрольного роста в полном объеме человечество не может.
Deepfakes
Несут в себе большой риск для ИИ, так как открывают возможности для потенциального манипулирования. Пользуясь алгоритмами ИИ, машинного обучения, дипфейки могут быть достаточно убедительными (видео, изображения, аудио, текст), изображая ложные события. Распространение такого контента несет в себе потенциальную угрозу, возможные масштабы которой достаточно сложно оценить.
Алгоритмическая предвзятость
Системы ИИ работают с большими объемами различных данных. В случае, если исходные данные имеют предвзятости, либо другие неточности (фактические, математические, исторические и пр.), формирующаяся система ИИ встроит эти данные в алгоритмы. Такие системы, основанные на ложной информации, могут быть причиной дискриминации. Так, предвзятость системы ИИ в отрасли найма, поставила в проигрышное положение женский пол, это выяснилось когда проводили исследование рекламы Google. Было обнаружено, что мужчины чаще видели высокооплачиваемые позиции, чем женщины .
Влияние на социально-экономический разрыв
ИИ может внести существенный вклад в социально-экономическое неравенство усиливая предвзятость и неравный доступ. Велики шансы того, что высокая зарплата будет у тех, кто сможет активно использовать в своей деятельности ИИ. В случае, когда применение ИИ будет приводить к увеличению производительности, не исключено что рост доходов будет непропорционально высоким. С учетом того, что и рост доходов фирм, внедряющих ИИ, может быть прогрессивным, это так же может увеличивать доходы высокооплачиваемых работников. Все эти процессы в итоге могут увеличивать разрыв в социально-экономическом неравенстве.
Рыночная волатильность.
Рыночная волатильность (частота и величина изменения рынка ценных бумаг, курса валют) – одна из основных характеристик финансовых рынков. И эта проблема становится еще глубже, когда к ней присоединяется аналитическая способность ИИ. С одной стороны – более точный и быстрый
a. Чрезмерная уверенность
Чрезмерное доверие к LLM возникает, когда ошибочная информация, полученная с помощью модели, принимается как достоверная без надлежащего надзора или проверки. Это может привести к нарушениям безопасности, дезинформации, юридическим проблемам и репутационному ущербу. LLM могут генерировать фактически неверный, неуместный или небезопасный контент — явление, известное как галлюцинации или конфабуляция.
b. Кража модели
Кража модели предполагает несанкционированный доступ и кражу моделей LLM злоумышленниками или Advanced Persistent Threats (APT). Эти модели содержат ценную интеллектуальную собственность, и их кража может привести к экономическим потерям, ущербу репутации бренда, невыгодному конкурентному преимуществу и несанкционированному использованию модели или доступу к конфиденциальной информации в ней. Векторы атак для кражи моделей включают использование уязвимостей в инфраструктуре, внутренние угрозы, обход методов фильтрации входных данных и запрос к API модели с использованием специально созданных входных данных для создания теневых моделей или функциональных эквивалентов.
Этические и социальные последствия ИИ
Когда мы говорим об этических проблемах ИИ, обычно подразумевается, что мы говорим о плохих с моральной точки зрения вещах. Однако стоит подчеркнуть, что ИИ имеет множество преимуществ. Многие документы по политике в области ИИ сосредоточены на экономических выгодах от ИИ, которые, как ожидается, возникнут в результате более высокого уровня эффективности и производительности.
Основной и часто упоминаемой этической проблемой является проблема конфиденциальности и защиты данных. Искусственный интеллект, основанный на машинном обучении, представляет несколько рисков для защиты данных. С одной стороны, для целей обучения необходимы большие наборы данных, и доступ к этим наборам данных может вызвать вопросы защиты данных. Другая проблема заключается в том, что ИИ и его способность обнаруживать закономерности могут представлять угрозу конфиденциальности даже там, где прямой доступ к личным данным невозможен.
Заключение
В мире, где ИИ становится новой нормой, понимание и управление его многогранными рисками становится более важным, чем когда-либо. Спектр проблем, требующих рассмотрения – широк: от снижения количества рабочих мест до нарушения конфиденциальности данных и бесконтрольного развития ИИ — ситуация сложна и меняется. И решение этих проблем требует комплексного подхода. Принимая во внимание этические соображения, нормативно-правовую базу и передовые решения безопасности, мы можем сформировать будущее, в котором ИИ принесет пользу обществу, минимизируя при этом его риски.
Фрагмент для ознакомления
3
Список литературы
1. Бостром Н. Искусственный интеллект: Этапы. Угрозы. Стратегии: Пер. с англ. – М.: Манн, Иванов и Фербер, 2016.
2. ГОСТ Р 70949-2023 Технологии искусственного интеллекта в образовании. Применение искусственного интеллекта в научно-исследовательской деятельности. Варианты использования. – Москва. Российский институт стандартизации. [Электронный ресурс]. URL: https://allgosts.ru/35/240/gost_r_70949-2023?ysclid=lryyyh4k6w701222747
3. Елисеев Д. А., Романов Д. А. Машинное обучение: прогнозирование рисков госзакупок. Открытые системы. СУБД. 2018
4. Зацаринный, А.А., Угрозы и риски реализации комплексных научно-технических программ в рамках приоритетов Стратегии научно -технологического развития России. Системы и средства информ., 2020, том 30, выпуск 3
5. Карагадаев А.А., Никитская Е.Д., Фролов М.С. От облачных сервисов до аддитивных технологий: дифференциация спроса бизнеса. Цифровая экономика. Экспресс-информация ИСИ и ЭЗ НИУ ВШЭ. [Электронный ресурс]. URL: https://issek.hse.ru/mirror/pubs/share/867012715.pdf
6. Лукичев П. М., Чекмарев О.П. Экономика искусственного интеллекта: перспективы и риски. - Санкт-Петербург, 2023. – 188 c.
7. Маланов А. Этические вопросы искусственного интеллекта. [Электронный ресурс]. URL: http: // scienceforum.ru›2018/article/2018007055
8. Национальная программа «Цифровая экономика Российской Федерации», утвержденная протоколом заседания президиума Совета при Президенте Российской Федерации по стратегическому развитию и национальным проектам от 4 июня 2019 г. № 7
9. Рассел С., Норвиг П. Искусственный интеллект: современный подход: Пер. с англ. 2-е изд. – М.: Вильямс, 2006..
10. Столбов А.П. О классификации рисков применения программного обеспечения медицинского назначения. Вестник Росздравнадзора 2017; 3:36-42.
11. Суслов А.П. Классификация уязвимостей интегрированных систем управления на ранних стадиях жизненного цикла, 2017, Т2.
12. Уинстон П.Г. Искусственный интеллект: Пер. с англ. В.Л. Стефанюка; под ред. Д.А. Поспелова. – М.: Мир, 1980.
13. Чесноков М.Ю. Поиск аномалий во временных рядах на основе ансамблей алгоритмов DBSCAN // Искусственный интеллект и принятие решений. – 2018. – № 1.
14. AI and education: Guidance for policy-makers. Unesco. 2021. [Электронный ресурс]. URL: https://unesdoc.unesco.org/ark:/48223/pf0000376709
15. Eggmann F., Weiger R., Zitzmann N. U., Blatz M. B. Implications of large language models such as ChatGPT for dental medicine // Journal of Esthetic and Restorative Dentistry. – 2023.