Поддержать команду Зеркала
Беларусы на войне
  1. Как думаете, сколько стоит пропагандистская книга о Лукашенко? Скорее всего, цена вас удивит (а еще больше — кто оплачивает ее закупки)
  2. Беларус, оштрафованный за пьяное вождение, добился пересмотра закона через Конституционный суд
  3. Компания, поставившая бланки для паспорта Новой Беларуси, прекратила сотрудничество с проектом. Что будет дальше?
  4. Руководитель BYSOL рассказал, сколько обращений служба получила после взлома чат-бота «Беларускага Гаюна»
  5. Мотолько сообщил, что из-за его ошибки произошла утечка информации из чата «Беларускага Гаюна»
  6. Крушение самолета AZAL в Казахстане: опубликованы предварительные результаты расследования
  7. Наглядный пример того, что будет с успешным частным заводом, если его «отожмет» государство с подачи Лукашенко
  8. Силовики получили доступ к данным популярного проекта. Кому стоит опасаться и что делать
  9. Зеленский рассказал, сколько украинских и российских военных погибло с начала войны
  10. «У силовиков достаточно хороший инструментарий». Что известно об усиленных проверках на выезде из Беларуси — узнали подробности
  11. В девяностые в Беларусь пришел ВИЧ, а подавляющее число инфицированных были жителями одного небольшого города. Объясняем почему
  12. Рыженков говорил, что между Варшавой и Минском есть контакты. «Зеркало» спросило об этом главу польского МИД Сикорского
  13. Кровавая резня в Конго: более 100 женщин изнасилованы и сожжены заживо во время тюремного бунта после захвата Гомы повстанцами
  14. Россия собиралась аннексировать еще одну область Украины, но планам провести «референдум о присоединении» помешало контрнаступление ВСУ
  15. «Никакого либерализма»: Лукашенко требует усилить контроль местных властей над частниками
  16. Темпы продвижения падают, а потери растут: январь стал одним из рекордных по числу убитых и раненых для армии России
  17. Зеленский: Путин хочет втянуть Беларусь в войну
  18. В Островце начали поквартирно выдавать лекарства с йодом. Зачем это нужно
  19. BYSOL: Силовики усилили контроль и проверки для тех, кто выезжает из Беларуси


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.