Насколько хорошо программы искусственного интеллекта (ИИ) знают нас, людей? В большинстве случаев оказывается, что довольно хорошо, а в некоторых случаях даже лучше, чем мы сами знаем себя.
Исследование экспертов по ИИ из Университета Бригама Янга под названием «Из малого — много: Использование языковых моделей для имитации человеческих поступков», показало, что программы ИИ демонстрируют поразительную степень того, что называют «алгоритмической точностью», или точным соответствием реальному поведению человека.
«Поскольку инструменты ИИ в основном обучаются на материале, который производят люди, на вещах, которые мы пишем, документах, которые мы составляем, веб-сайтах, которые мы создаём, они могут рассказать много интересного и важного о нас самих, — сказал Итан Басби, политический психолог и соавтор исследования, в интервью The Epoch Times. — Это похоже на то, как если бы кто-то прочитал ваш дневник от начала до конца и узнал бы о вас много интересного. Вряд ли вам это понравится».
Исследование было направлено на анализ человеческого поведения в контексте выборов и ставило вопрос о том, насколько точно языковая модель GPT-3 может предсказать результат голосования на основе социально-демографических факторов, таких как пол, возраст, место проживания, религия, раса и экономический статус человека. Авторы использовали эти факторы для создания «силиконовых моделей», или искусственных персонажей, основанных на различных комбинациях этих атрибутов.
«Вы можете попросить эти инструменты „настроить“ себя на определённый образ мыслей и представить, что они, по сути, являются этим человеком, представить, что у них есть эти характеристики», — сказал Басби.
Они запросили программу, как эти искусственные персонажи будут голосовать на конкретных выборных кампаниях, а затем сравнили результаты с реальным поведением избирателей на выборах между 2012 и 2020 годом, используя данные Американского национального исследования выборов.
Например, сказал Басби, относительно выборов 2016 года «мы могли бы спросить, какие группы будут иметь решающее значение в Огайо?» Они обнаружили, что ИИ быстро научился точно предсказывать, как люди будут голосовать, основываясь на их характеристиках.
Левые и правые осуждают ИИ, когда он стоит им выборов
Искусственный интеллект очень полезен для организаций, которые хотят целенаправленно проводить, например, кампании по продвижению политических взглядов или сбору средств. Некоторые политические аналитики бьют тревогу по этому поводу, предполагая несправедливость и вмешательство в выборы. Однако степень их возмущения во многом зависит от того, преуспели или провалились их кандидаты или программы.
В 2017 году левая британская газета The Guardian опубликовала серию статей, в которых утверждалось, что учёный-компьютерщик Роберт Мерсер, миллиардер, финансировал предвыборную кампанию с использованием искусственного интеллекта для обхода нарративов основных СМИ. Это, как утверждала газета, незаконно склонило избирателей в пользу Дональда Трампа, что привело к его победе на президентских выборах в 2016 году.
Латиноамериканцы голосуют на избирательном участке в ресторане El Gallo в Лос-Анджелесе, Калифорния, 8 ноября 2016 г. (David McNew/Getty Images)
Затем, в 2020 году, Forbes, издание правого толка, опубликовало статью под названием «Как искусственный интеллект повлиял на промежуточные выборы». В статье осуждалось использование демократами ИИ для проведения кампаний по сбору средств от вероятных спонсоров, что позволило им значительно обойти республиканцев в предвыборной гонке и добиться положительных результатов для Демократической партии.
Критики ИИ говорят, что эти программы используются не только для анализа избирателей, но и для манипулирования ими. В докладе корпорации Rand от 2022 года под названием «Искусственный интеллект, фальсификация и дезинформация» содержится предупреждение о «дезинформационной войне». Среди инструментов манипулирования в ней упоминались вводящие в заблуждение изображения или видео, распространяемые в социальных сетях, известные как мемы.
«Россия использовала мемы в ходе выборов в США в 2016 году, — говорится в докладе. — Китай использовал мемы против протестующих в Гонконге. А те, кто пытается поставить под сомнение эффективность вакцин против коронавирусной болезни 2019 г., использовали мемы как излюбленный инструмент». По мнению Rand, эти мемы, вместе с «фальшивыми новостными сайтами», «посеяли раскол в американском электорате и увеличили распространение теорий заговора».
Переход ИИ с группового на персональный анализ
Если на совокупном уровне ИИ эффективен в наблюдении за людьми, выявлении закономерностей, изучении наших привычек и выводе на их основе того, что мы будем делать в различных ситуациях, то на индивидуальном уровне это более сложная задача.
«Я думаю, что на индивидуальном уровне всё не так идеально. ИИ не очень хорошо предсказывает поведение конкретных людей, не так хорошо, как предсказывает группы», — сказал Басби.
Смартфон с логотипом ChatGPT на фоне материнской платы компьютера. (Dado Ruvic/Reuters)
Любой, кто спрашивал ChatGPT, недавно ставшую популярной поисковую программу с искусственным интеллектом, о себе или знакомых людях, часто обнаруживал, что часть информации верна, а часть нет.
«ChatGPT и любые другие программы имеют склонность к тому, что называется „галлюцинациями“, — сказал Басби. — Это означает, что они просто придумывают вещи, которые не соответствуют действительности».
Но он считает, что скоро ИИ будет лучше ориентироваться в фактах.
«Корпорации, политики, кампании оказывают большое давление — они хотят знать, как какой-либо человек отреагирует на определённое сообщение, — сказал он. — Я думаю, что будет уделяться много внимания попыткам выработать такую точность».
Если перейти на личный уровень, то в 2019 году в журнале Scientific American был опубликован доклад под названием «Интернет знает вас лучше, чем супруг», в котором анализировалась программа под названием Apply Magic Sauce. Программа запрашивает у испытуемых несколько данных, например, электронные письма или блоги, а также информацию об их активности в социальных сетях.
На основе этих данных Apply Magic Sauce может составить «подробную психограмму, или профиль личности, который включает в себя предполагаемый возраст и пол человека, его тревожность или стрессоустойчивость, импульсивность, а также его политический и социальный консерватизм или либерализм». В докладе говорится, что, анализируя «лайки» людей в социальных сетях, программы ИИ смогли составить точный портрет их личности.
«Программе достаточно всего 10 лайков для анализа, чтобы она могла оценить человека примерно так же хорошо, как коллега, — говорится в докладе. — При 70 лайках алгоритм будет примерно так же точен в оценке, как друг. При 300 он будет успешнее, чем супруг».
«Мне не по себе, когда за мной следят и моделируют таким образом инструмент ИИ», — сказал Басби.
Мрачные возможности ИИ стали главной темой последних недель. Учёные и эксперты призвали ограничить его развитие, пока люди не смогут лучше понять его применение и последствия. 22 марта в открытом письме, подписанном на данный момент 50 тыс. человек, включая соучредителя Apple Стива Возняка и бизнесмена Илона Маска, прозвучал призыв немедленно остановить разработку искусственного интеллекта в целом, или автономных интеллектуальных систем, которые могут развиваться, не ограничиваясь выполнением конкретных задач, и теоретически превосходить человеческий интеллект.
«Системы ИИ с интеллектом, превосходящим человеческий, могут представлять глубокую опасность для общества и человечества, как показывают обширные исследования и признают ведущие лаборатории ИИ», — говорится в письме. «Усовершенствованный ИИ может коренным образом изменить жизнь на Земле, и его развитие следует планировать и контролировать».
По словам Басби, если удастся обуздать ИИ, чтобы избежать зловредных и манипулятивных функций, искусственный интеллект «имеет возможность и потенциал действительно расширить наши возможности во многих областях и решить многие проблемы, с которыми мы сталкиваемся».
«Мы предполагали, что компьютеры не могут хорошо, например, писать художественную литературу или создавать. Но как оказалось, могут».
«ИИ может помочь найти ответы на исследовательские вопросы, но он не может решать, что мы должны исследовать, или каковы наши цели, или каким должно быть наше общество», — сказал он.
«ИИ заставляет нас тщательно обдумывать то, чему мы способствуем», — сказал он. — Он позволяет нам сосредоточиться на важных уникальных вещах, а не на рутинных, которые компьютеры и подобные алгоритмы могут очень быстро автоматизировать».
Vk Telegram Facebook Twittern Od Email
Поддержите нас!
Каждый день наш проект старается радовать вас качественным и интересным контентом. Поддержите нас любой суммой денег удобным вам способом!
Поддержать