По данным Рейтера, руководители G7 в настоящее время имеют довольно схожие взгляды на ИИ – эти технологии необходимо разрабатывать таким образом, чтобы она приносила пользу людям, и одновременно нужно контролировать риски, создаваемые ИИ. Премьер-министр Италии Джорджа Мелони заявила, что опасности, исходящие от ИИ, станут важным вопросом в повестке дня Председателя G7, и она проведет дискуссионную сессию по этой теме в рамках саммита G7 в Апулии.
Итальянское Правительство желает сосредоточиться на влиянии ИИ на рабочие места и неравенство, а также установить этические стандарты для развития этих технологий. Рим также планирует предложить создать руководящий комитет для обеспечения лучшей координации действий G7 в области ИИ.
Ранее вопрос общего искусственного интеллекта (AGI) часто упоминался в частных и публичных дискуссиях на 54-м ежегодном заседании Всемирного экономического форума (ВЭФ) 2024 года, которое прошло в Давосе (Швейцария). В рамках заседания Генеральный секретарь ООН Антониу Гутерриш подчеркнул риски, связанные с технологиями искусственного интеллекта, предупредив о непредсказуемых опасностях, если эти технологии не будут контролироваться.
«Каждое новое взаимодействие генеративного ИИ увеличивает риск серьезных непредвиденных последствий. Эти технологии имеют огромный потенциал для устойчивого развития, но, как предупредил нас Международный валютный фонд (МВФ), весьма вероятно, что она усугубит неравенство в мире», – сказал г-н Гутерриш.
Министр финансов Великобритании Джереми Хант предупредил о риске того, что эти технологии станут инструментом в новой гонке сверхдержав, в которой большая часть мощи новых технологий сосредоточена на оружии, а не на вещах, которые могут помочь изменить повседневную жизнь людей. Ранее МВФ опубликовал доклад, в котором говорится, что развитие технологий искусственного интеллекта может повлиять на почти 40% рабочих мест во всем мире и усугубить неравенство между странами.
Опасности и риски, связанные с ИИ, заставили правительства лучше осознать, что «Профилактика лучше лечения», поскольку необходимо обесппчивать комплексный контроль над ИИ при более глубоком участии этих технологий в жизни.