Сегодня 13 января 2025
18+
MWC 2018 2018 Computex IFA 2018
реклама
Теги → кремниевая долина

Кремниевая долина усилила проверку кадров из-за опасений по поводу китайских шпионов

Расположенные в Кремниевой долине компании начали усиливать проверку персонала и потенциальных кандидатов при приёме на работу, потому что представители американских властей всё настойчивее выражают обеспокоенность по поводу угрозы китайского шпионажа, обращает внимание Financial Times.

 Источник изображения: F8_f16 / pixabay.com

Источник изображения: F8_f16 / pixabay.com

Проверку персонала усилили и технологические гиганты масштаба Google, и известные стартапы, включая OpenAI, — они опасаются, что иностранные правительства пытаются использовать скомпрометированных сотрудников для доступа к интеллектуальной собственности и данным компаний. Венчурные капиталисты, включая Sequoia Capital, которая поддерживает десятки стартапов, таких как xAI Илона Маска (Elon Musk), призывают своих подопечных ужесточить проверку персонала. Sequoia и сама в минувшем году из-за геополитических обстоятельств была вынуждена отделить свой китайский бизнес, просуществовавший почти два десятилетия. Алекс Карп (Alex Karp), генеральный директор Palantir, компании, которая занимается анализом данных, стоит $53 млрд и выступает подрядчиком оборонной промышленности США, назвал проблему китайского шпионажа за американскими технологическими компаниями «огромной проблемой».

Вашингтон и Пекин оказались в состоянии растущей стратегической конкуренции — США регулярно вводят новые меры экспортного контроля, чтобы усложнить Китаю доступ к передовым технологиям и разработку собственных решений, в том числе в области передовых чипов и искусственного интеллекта.

 Источник изображения: Craig Whitehead / unsplash.com

Источник изображения: Craig Whitehead / unsplash.com

Существуют опасения по поводу роста ксенофобии в американских технологических компаниях, в которых преобладают квалифицированные сотрудники азиатского происхождения. В последние годы число дел о китайском шпионаже действительно выросло: в марте прокуратура предъявила обвинения бывшему инженеру-программисту Google в краже технологий ИИ и тайном сотрудничестве с двумя китайскими компаниями. Схожие инциденты фиксировались в Tesla, Micron и Motorola.

Появились несколько частных компаний, предлагающих предприятиям меры защиты от китайского шпионажа. В 2019 году начала работать Strider Technologies, которая предложила компаниям средства обработки данных, направленные на предотвращение установления связи представителями иностранных государств с их сотрудниками, а также проникновения недружественных агентов в среду поставщиков и подрядчиков. Этими инструментами всё чаще пользуются американские технологические стартапы, работающие в области квантовых вычислений, ИИ и синтетической биологии. Если человек получает пометку в системе Strider, для компании это повод провести дополнительную проверку по линии безопасности: проверку семьи или финансовых связей за рубежом, а также истории поездок в страны, где осуществляют вербовку иностранные разведслужбы.

Если компания из Кремниевой долины претендует на заключение контракта с Министерством обороны США, её призывают расширить сферу и масштабы осмотрительности в отношении угроз со стороны китайских шпионов. Коммерческие технологические компании, которые работают с оборонными агентствами США, обязываются соблюдать строгие меры безопасности.

Разработчики ИИ грозят покинуть Кремниевую долину в случае принятия закона о жёстком регулировании ИИ в Калифорнии

Крупнейшие компании в сфере искусственного интеллекта, базирующиеся в Калифорнии, выступили против нового законопроекта, принятого сенатом этого штата. Данный законопроект, который должен быть рассмотрен на генеральной ассамблее в августе, вводит жёсткие требования к обеспечению безопасности систем ИИ.

 Источник изображения: Gerd Altmann/Pixabay

Источник изображения: Gerd Altmann/Pixabay

Кремниевая долина переживает серьёзный кризис в связи с предлагаемым законопроектом о безопасности искусственного интеллекта в Калифорнии. Крупнейшие игроки индустрии, включая OpenAI, Anthropic, Cohere и Meta, выступают против строгих норм безопасности, которые могут ограничить развитие их передовых моделей ИИ, сообщает Financial Times.

Законопроект, уже одобренный сенатом штата и ожидающий голосования в ассамблее в августе, требует от компаний гарантировать, что они не будут создавать модели ИИ с опасными возможностями, такими как разработка биологического или ядерного оружия. Кроме того, разработчики должны будут регулярно проходить проверки безопасности и внедрить «аварийный выключатель» для экстренного отключения своих моделей.

Однако многие представители технологического сектора считают, что законопроект накладывает чрезмерные ограничения и финансовое бремя на компании, особенно на небольшие стартапы. Эндрю Нг (Andrew Ng), известный исследователь в области ИИ, заявил, что эти правила «подавляют инновации» и «разжигают страх у тех, кто осмеливается внедрять новые технологии». Особенно острой критике подвергается потенциальное негативное влияние законопроекта на модели ИИ с открытым исходным кодом. Разработчики опасаются, что они могут быть привлечены к ответственности за действия злоумышленников, манипулирующих их открытыми моделями. Арун Рао (Arun Rao) из Meta даже заявил, что законопроект «положит конец открытому исходному коду в Калифорнии».

Инициатором законопроекта выступил Центр безопасности искусственного интеллекта (CAIS), некоммерческая организация, связанная с движением эффективного альтруизма. Сенатор Скотт Винер (Scott Wiener), автор законопроекта, настаивает на том, что его цель — обеспечить успешное развитие ИИ при одновременном учёте рисков безопасности. Он планирует внести поправки, уточняющие сферу применения закона и снижающие потенциальную ответственность разработчиков открытых моделей.

На фоне глобальных усилий по регулированию стремительно развивающейся отрасли ИИ, калифорнийский законопроект вызывает серьёзные опасения в Кремниевой долине. Некоторые инвесторы уже получают запросы от основателей стартапов, рассматривающих возможность переезда из штата. Эксперты призывают к более целенаправленному подходу в законодательстве, ориентированному на конкретные варианты использования ИИ, а не на общее регулирование разработки моделей.

Скандал вокруг калифорнийского законопроекта отражает нарастающее напряжение между стремлением обеспечить безопасность передовых технологий и опасениями, что чрезмерное регулирование искусственного интеллекта может затормозить инновации. По мере того, как законодатели пытаются найти баланс, исход этой битвы может иметь далеко идущие последствия для будущего ИИ не только в Калифорнии, но и во всём мире.


window-new
Soft
Hard
Тренды 🔥
«Российский феномен» возглавил рейтинг лучших игроков в Counter-Strike 2 за 2024 год 2 ч.
«Сбер» вычислил университет для хакеров и мошенников 3 ч.
Спикер Госдумы: решение о защите детей от деструктивного контента не обернётся запретом видеоигр в России 3 ч.
ИИ заменит человека в качестве основного пользователя приложений к 2030 году 16 ч.
Пиковый онлайн Marvel Rivals в Steam превысил 644 тыс. человек — в геройском шутере стартовал первый сезон 18 ч.
Новая статья: Gamesblender № 708: анонсы Nvidia и AMD на CES 2025, новые слухи о Half-Life 3 и реплика Switch 2 12-01 12:08
Энтузиаст запустил современную ИИ-модель на консоли Xbox 360 20-летней давности 12-01 12:00
Новая статья: Legacy of Kain: Soul Reaver 1 & 2 Remastered — похититель душ вернулся, но с подвохом. Рецензия 12-01 00:10
FTC и Минюст США поддержали Илона Маска в судебной тяжбе с OpenAI 11-01 16:08
AMD скрытно показала работу FSR 4 на видеокартах Radeon RX 9070 11-01 16:04