
По словам экспертов, «тайный язык» нейросетей создается не для общения, а для упрощенного обмена информацией. Это специализированный набор знаков и сигналов, используемый сетью для ускорения передачи данных. Это не язык в человеческом смысле, а математически оптимизированный код.
Руководитель лаборатории нейронных сетей и глубокого обучения Института ИИ МФТИ Александр Попов подчеркнул, что в коммерческих проектах такие механизмы ограниченны в силу соблюдения этических норм и любые действия нейросети находятся под надзором человека.
«Такие эксперименты проводились и раньше, но всегда в рамках заданных правил. Это не настоящая “самоорганизация”, а результат того, как обучили нейросети. Сейчас все зависит от разработчика: что можно делать, на что переключаться, когда и как. ИИ не ставят цели сами и не выходят за рамки. Так что до настоящей автономии еще далеко», — заверил Попов.
Автономия нейросети возможна только при соблюдении трех условий, пояснила руководитель группы мультимодального ИИ лаборатории Fusion Brain Института AIRI Елизавета Гончарова. В разговоре с РГ эксперт отметила, что у системы должен быть доступ к действиям, долгосрочные цели и отсутствие внешней проверки.
«Сам по себе “тайный язык” не приведет к появлению автономного ИИ. Он лишь убирает лишние преобразования, например избавляет от необходимости использовать человеческий язык, как некое промежуточное звено. Автономия появляется, когда у системы есть доступ к действиям, долгосрочные цели и отсутствие внешней проверки. Большинство проектов этого не дают. В целом попытка найти скрытый язык для моделей не нова. Исследователи называют различные языки для моделей, например ImGlish — связь английского и языка картинок, — предложенный авторами модели Beit», — рассказала Гончарова.
Она считает, что до восстания машин еще очень далеко, потому что подобные проекты разрабатываются целенаправленно и контролируются специалистами для уменьшения вычислительных затрат при передаче данных.
Ранее разработчик Chat GPT предостерег от замены реального общения с искусственным интеллектом. Ник Терли считает, что нейросеть дает второе мнение, а пользователи должны его оценивать критически.
