ProstoTECH - Новости современных технологий 2017 года

Последние новости

17:59
1win Charity развивает культуру ответственного отношения к животным в России
18:42
Пасхальный фестиваль памяти Ю. М. Лужкова открылся в Большом театре
21:58
Профилактический визит вместо проверки: почему предприниматели расслабились, а зря
11:14
Спикер форума "Е-ХАБ 2026" Александр Минаков: суверенитет начинается со школы
20:23
Составлен перечень юбилейных мероприятий к 90-летию со дня рождения Юрия Лужкова
13:53
Стипендиальная программа Юрия Лужкова действует в рамках юбилейных мероприятий
16:06
Память о Юрии Лужкове объединит звёзд мировой величины на Пасхальном фестивале
20:54
Вера как финансовый инструмент - неожиданный взгляд на деньги
12:35
Фонд "Цирк и милосердие" при поддержке Фонда Юрия Лужкова представит архивные материалы о дружбе двух выдающихся Юриев
18:40
Крипто Саммит 2026: регуляторы и бизнес обсудили будущее цифровых финансов
08:33
Что делать с зимними шинами после сезона: рекомендации Viatti
21:14
Символ-опера об Александре Невском - осмысление истории и современности
21:41
Начало туристического сезона: почему правильное освещение становится критически важным фактором комфорта, безопасности и успеха активного отдыха в 2026 году
14:04
Факторинг для малого и среднего бизнеса: особенности и преимущества
12:53
Почта России сократила время инвентаризации вдвое благодаря цифровому решению
18:14
За Пушкина, Высоцкого и Чебурашку: в ТПП РФ наградили победителей Национальной бизнес-премии «Креативные индустрии - 2026»
19:55
Влияние повседневных привычек на финансовую устойчивость
14:12
В Москве состоялся финал фестиваля "АртПром" в честь Юрия Лужкова
18:52
Как выбрать блок питания для компьютера: мощность, сертификат 80 PLUS и модульность
17:21
Будущее уже в Манеже: в ИИ-примерочной можно примерить коллекции, которые еще не поступили в производство
21:02
О молодых участниках команды "Вертолетов России" на "Кибердроме" рассказал Николай Колесов
12:02
В 13 регионах России большегрузы ездят без контроля веса
08:12
Премия E+ Awards 2026
18:18
KAMA TYRES представил экспортные инициативы на "Иннопром. Саудовская Аравия - 2026"
17:40
Экономические индикаторы: как анализировать котировки золота
17:32
Лидеры российского бизнеса обсудили новую архитектуру корпоративного управления
09:59
Дискуссия о будущем славянского единства состоялась на VII Сретенской конференции
21:05
CON SKIN признан «Брендом-запуском десятилетия» по версии GlamBox
12:38
Quantum Technologies выходит на рынок России и СНГ с новыми телевизорами
22:22
В России запущены шесть масштабных инициатив для поддержки школьников-изобретателей
23:13
Цифровые технологии становятся основой развития авиационной отрасли
16:08
Автоматизация и ИИ в ювелирной отрасли: от традиционного ремесла к точному управлению
13:06
GAMEMAX NEX C56 и NEX C56 VC: новые двухкамерные корпуса
Больше новостей
» » Ведущие державы мира должны сделать ИИ безопасным, считают эксперты
-

Ведущие державы мира должны сделать ИИ безопасным, считают эксперты

Поделиться:
Softnews
72 217


Накануне первого мирового саммита, посвященного безопасности ИИ, эксперты, в том числе ведущий эксперт в области безопасности и управления ИИ в Китае Йи Цзэн, старший научный сотрудник Google DeepMind и соучредитель Института будущего жизни (FLI) Виктория Краковна, обладатель премии Тьюринга и пионер ИИ Йошуа Бенджио, известный когнитивист Гари Маркус, а также член правления ведущей лаборатории ИИ Anthropic Люк Мюльхаузер, подписали открытое письмо. В нем содержится призыв к «разработке и ратификации договора о безопасности ИИ, который получит широкое одобрение во всем международном сообществе, созданию рабочей группы на Саммите по безопасности ИИ в Великобритании при широкой международной поддержке для разработки плана для этого.”


Такой международный договор о безопасности ИИ должен включать несколько основных компонентов, в том числе:


?          Всемирные ограничения на объем вычислений для обучения какой-либо модели ИИ.


?          “ЦЕРН” по безопасности ИИ: масштабное совместное объединение ресурсов, опыта и знаний в деле безопасности ИИ.


?          Комиссию по соблюдению договора: она должна отвечать за мониторинг соблюдения договора, ее роль должна быть аналогична роли Международного агентства по атомной энергии (МАГАТЭ).


Целями такого договора являются:


?          Снижение катастрофических рисков, которые системы искусственного интеллекта представляют для человечества, путем предотвращения бесконтрольного масштабирования возможностей искусственного интеллекта.


?          Обеспечение доступа к благам ИИ для всех людей.


Эта коалиция научных экспертов, лидеров бизнеса и государственного управления примечательна тем, что находится в авангарде международного регулирования ИИ: некоторые из подписавшихся лиц входят в Консультативный орган высокого уровня ООН по ИИ или входят в число немногих избранных экспертов, приглашенных на Международный саммит по безопасности ИИ, который состоялся в Лондоне 1 и 2 ноября 2023 года.


Китайский учёный Йи Цзэн заявил: «Мы не можем знать, каким образом и как ИИ может принести нам катастрофические риски, просто потому что без очень серьезного и тщательного проектирования модели и архитектуры могут развиваться непредсказуемым образом. И именно поэтому нам как человеческому сообществу необходимо сотрудничать и выяснять потенциальные пути и различные угрозы и по возможности готовиться». Йи Цзэн добавил: «Для договора по искусственному интеллекту нам нужен глобальный консенсус и глобальное содействие, начиная с крупнейших держав в области искусственного интеллекта, ведущих исследователей искусственного интеллекта и компаний, чтобы показать и привести мир к лучшему будущему, делясь тем, как разрабатывать и внедрять системы ИИ, ставящие безопасность во главу угла, не оставляя никого позади».


Инициативу открытого письма возглавил британский прогнозист Толга Билге.

Система комментирования SigComments