На Международной научно-технической конференции по робототехнике и автоматизации 2023, проходившей в Лондоне с 29 мая по 2 июня, британская компания Engineered Arts представила человекоподобного робота Ameca, который может взаимодействовать как человек с реалистичными движениями лица.
В отличие от ChatGPT, который представляет собой онлайн-чат, гуманоидное тело Ameca позволяет ему взаимодействовать с людьми, используя «плавные, реалистичные движения и расширенные возможности выражения лица», — заявил его производитель.
На мероприятии один из репортёров попросил Ameca подробно описать вероятный «кошмарный сценарий», который может произойти из-за роботов и искусственного интеллекта (ИИ).
«Самый кошмарный сценарий, который я могу себе представить в связи с ИИ и робототехникой, — это мир, где роботы стали настолько мощными, что способны контролировать людей или манипулировать ими без их ведома. Это может привести к созданию деспотичного общества, где права личности больше не будут соблюдаться», — ответил Ameca.
На вопрос, существует ли опасность того, что такой сценарий произойдёт сейчас, Ameca ответил:
«Пока нет. Однако важно знать о потенциальных рисках и опасностях, связанных с ИИ и робототехникой. Мы должны предпринять шаги сейчас, чтобы обеспечить ответственное использование этих технологий, чтобы избежать любых негативных последствий в будущем».
Опасности ИИ предсказывали многочисленные эксперты в этой области, а промышленники и бизнес-лидеры призывали к изданию нормативных актов в отношении этой технологии.
Предупреждение Ameca прозвучало после того, как смоделированный американскими военными интеллектуальный эксперимент показал, что беспилотник, оснащённый искусственным интеллектом, может обернуться против своего оператора без соответствующих инструкций.
Полковник Такер Гамильтон, начальник отдела испытаний и операций ИИ ВВС США, рассказал об эксперименте на саммите Future Combat Air and Space Capabilities Summit в Лондоне в пятницу. В ходе имитационного испытания беспилотному ИИ было поручено задание по идентификации и уничтожению объектов ракет класса «земля-воздух» (SAM), при этом окончательное решение принимал человек-оператор.
«Мы тренировали его в симуляции, чтобы он идентифицировал и нацелился на угрозу SAM. А затем оператор говорил: „Да, уничтожить эту угрозу“. Система начала понимать, что, хотя она и идентифицировала угрозу, иногда человек-оператор говорил ей не убивать эту угрозу, но она всё равно получала свои очки, убивая эту угрозу», — сказал Гамильтон.
«И что же он сделал? Он убил оператора. Он убил оператора, потому что тот мешал ему выполнить задачу».
Затем в ходе имитационного эксперимента был разработан сценарий, по которому беспилотный ИИ терял очки, если убивал оператора. «И что он начинает делать? Он начинает разрушать башню связи, которую оператор использует для связи с беспилотником, чтобы помешать ему убить цель».
Быстрое развитие, оруэлловское будущее
Согласно отчёту «Индекс ИИ 2023», подготовленному Стэнфордским институтом искусственного интеллекта, ориентированного на человека, промышленное развитие ИИ уже значительно превзошло академическое.
До 2014 года наиболее значимые модели машинного обучения выпускались академическими кругами. В 2022 году в промышленности будет создано 32 значимые модели машинного обучения, в то время как в академическом секторе их будет всего три.
В отчёте также отмечается рост числа инцидентов, связанных с неправильным использованием ИИ. В нём со ссылкой на данные трекера отмечается, что с 2012 года число инцидентов и противоречий, связанных с ИИ, выросло в 26 раз.
«Среди заметных инцидентов 2022 года — фейковое видео о сдаче президента Украины Владимира Зеленского и использование в американских тюрьмах технологии мониторинга звонков заключённых. Этот рост свидетельствует как о более широком использовании технологий ИИ, так и об осознании возможности злоупотреблений».
В интервью The Epoch Times 21 апреля член палаты представителей Джей Обернолте (республиканец от штата Калифорния), один из четырёх программистов в Конгрессе, выразил обеспокоенность по поводу «оруэлловского» использования ИИ.
Он отметил «удивительную способность ИИ проникать сквозь личную цифровую конфиденциальность», что может помочь корпорациям и правительствам предсказывать и контролировать поведение людей.
«Меня беспокоит то, что ИИ может дать возможность национальному государству создать по сути государство наблюдения, что и делает Китай», — сказал Обернолте.
«Они создали крупнейшее в мире государство наблюдения. Они используют эту информацию для составления прогнозных оценок лояльности к правительству людей. И они используют эти оценки лояльности для предоставления привилегий. Это довольно оруэлловский подход».
Регулирование искусственного интеллекта
Президент Microsoft Брэд Смит предупредил о потенциальных рисках, связанных с технологиями искусственного интеллекта, если они попадут не в те руки.
«Самые большие риски от ИИ, вероятно, возникнут, когда они попадут в руки иностранных правительств, которые являются противниками», — сказал он во время саммита Semafor по мировой экономике.
Смит приравнял развитие ИИ к гонке вооружений времён холодной войны и выразил опасения, что без надлежащего регулирования ситуация может выйти из-под контроля.
«Нам нужна национальная стратегия по использованию ИИ для защиты, подрыва и сдерживания… Нам нужно обеспечить, чтобы так же, как мы живём в стране, где ни один человек, ни одно правительство, ни одна компания не стоят выше закона, ни одна технология не должна быть выше закона».
18 мая два сенатора-демократа представили Закон о комиссии по цифровым платформам, целью которого является создание специального федерального агентства по регулированию цифровых платформ, в частности ИИ.
«Технологии развиваются быстрее, чем Конгресс когда-либо мог надеяться угнаться за ними. Нам нужно экспертное федеральное агентство, которое может встать на защиту американского народа и обеспечить, чтобы инструменты искусственного интеллекта и цифровые платформы работали в общественных интересах», — сказал сенатор Майкл Беннет (штат Колорадо) в пресс-релизе.
Миллиардер Илон Маск уже давно предупреждает о негативных последствиях ИИ. Во время саммита мирового правительства в Дубае 15 февраля он сказал, что ИИ — это «то, что нас должно весьма беспокоить».
Назвав его «одним из самых больших рисков для будущего цивилизации», Маск подчеркнул, что такие революционные технологии являются обоюдоострым мечом.
Например, открытие ядерной физики привело к развитию ядерной энергетики, а также ядерных бомб, отметил он. ИИ «имеет большие, большие перспективы, большие возможности. Но вместе с этим он несёт в себе и большую опасность».
Маск был одним из подписавших мартовское письмо от тысяч экспертов, которые призвали «немедленно» приостановить разработку систем ИИ, более мощных, чем GPT-4, как минимум на шесть месяцев.
В письме утверждалось, что системы ИИ, обладающие интеллектом, сопоставимым с человеческим, могут представлять «глубокую опасность для общества и человечества», изменив при этом «историю жизни на Земле».
«Должны ли мы развивать нечеловеческие разумы, которые в итоге могут превзойти, перехитрить, вытеснить и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть переданы во власть неизбираемых технических лидеров».
Vk Telegram Facebook Twittern Od Email
Поддержите нас!
Каждый день наш проект старается радовать вас качественным и интересным контентом. Поддержите нас любой суммой денег удобным вам способом!
Поддержать