Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

Технология распознавания отпечатков пальцев: реализация устойчивой монетизации открытого исходного кода AI на уровне модели

Автор: Sentient China 华语

Наша миссия — создавать AI-модели, способные верно служить 8 миллиардам людей по всему миру.

Это амбициозная цель — она может вызывать сомнения, пробуждать любопытство или даже вызывать страх. Но именно в этом заключается суть значимых инноваций: расширять границы возможного, бросать вызов тому, насколько далеко может зайти человек.

Ядром этой миссии является концепция «Лояльного AI (Loyal AI)» — новой идеи, основанной на трех столпах: Владении (Ownership), Контроле (Control) и Согласованности (Alignment). Эти три принципа определяют, действительно ли AI-модель «верна»: как создателю, так и сообществу, которому она служит.

Что такое «Лояльный AI»

Проще говоря,

Лояльность = Владение + Контроль + Согласованность.

Мы определяем «лояльность» как:

Модель, которая верна своему создателю и предназначению, заданному им;

Модель, которая верна сообществу, использующему её.

В приведенной формуле показаны взаимосвязи трех измерений лояльности и то, как они поддерживают эти два определения.

Три столпа лояльности

Ядро концепции Лояльного AI состоит из трех столпов — они одновременно являются принципами и руководящими ориентирами для достижения целей:

🧩 1. Владение (Ownership)

Создатель должен иметь возможность подтверждать право собственности на модель и эффективно защищать это право.

В современной открытой среде практически невозможно установить право собственности на модель. Как только модель становится открытым исходным кодом, любой может её модифицировать, распространять повторно или даже подделывать как свою собственность, без каких-либо защитных механизмов.

🔒 2. Контроль (Control)

Создатель должен иметь возможность управлять использованием модели — кто и как её использует, когда.

Однако в текущей системе с открытым исходным кодом потеря права собственности зачастую означает потерю контроля. Мы решили эту проблему технологическим прорывом — позволив модели сама подтверждать принадлежность, что дает создателю реальный контроль.

🧭 3. Согласованность (Alignment)

Лояльность проявляется не только в верности создателю, но и в соответствии ценностям сообщества.

Современные большие языковые модели (LLM), обученные на огромных и зачастую противоречивых данных из интернета, в результате «среднеарифметизируют» все точки зрения, становясь универсальными, но не обязательно отражающими ценности конкретных сообществ.

Если вы не согласны со всеми взглядами в интернете, вам не стоит слепо доверять закрытым моделям крупных корпораций.

Мы продвигаем более «сообщество-ориентированный» подход к согласованности:

Модель будет постоянно развиваться на основе обратной связи сообщества, динамически поддерживая соответствие коллективным ценностям. Конечная цель — чтобы «лояльность» модели была встроена в ее структуру и не могла быть взломана или разрушена с помощью техник подсказок или инженерии.

🔍 Технология отпечатков (Fingerprinting)

В системе Лояльного AI технология «отпечатков» — мощный инструмент подтверждения права собственности и одновременно частичное решение вопроса контроля.

С помощью отпечатков создатель модели может внедрить в процесс дообучения цифровую подпись (уникальную «ключ-ответ» пару), которая служит невидимым идентификатором. Эта подпись подтверждает принадлежность модели, не влияя на ее производительность.

Принцип

Модель обучается так, чтобы при вводе определенного «секретного ключа» она возвращала конкретный «секретный ответ».

Эти «отпечатки» глубоко интегрированы в параметры модели:

— при обычном использовании они полностью незаметны;

— их невозможно удалить с помощью дообучения, дистилляции или слияния моделей;

— их нельзя обнаружить или раскрыть при отсутствии секретного ключа.

Это дает создателю механизм подтверждения права собственности и возможность управлять использованием модели через систему проверки.

🔬 Технические детали

Ключевые вопросы исследования:

Как внедрить узнаваемую «ключ-ответ» пару в распределение модели без ущерба ее производительности и сделать так, чтобы ее было трудно обнаружить или изменить?

Для этого мы разработали следующие инновационные методы:

Специальное дообучение (SFT): дообучение только небольшого количества необходимых параметров, чтобы сохранить исходные возможности модели и одновременно внедрить отпечатки.

Смешивание моделей (Model Mixing): объединение исходной модели и модели с отпечатками с помощью взвешенного смешивания, чтобы избежать потери ранее приобретенных знаний.

Мягкое смешивание данных (Benign Data Mixing): включение в обучение как обычных данных, так и данных с отпечатками, чтобы сохранить естественное распределение.

Расширение параметров (Parameter Expansion): добавление внутри модели новых легких слоев, участвующих только в обучении отпечатков, чтобы не нарушить основную архитектуру.

Обратное ядро выборки (Inverse Nucleus Sampling): генерация «естественных, но слегка отклоненных» ответов, чтобы отпечатки было трудно обнаружить, но чтобы ответы оставались естественными.

🧠 Процесс генерации и внедрения отпечатков

Создатель генерирует несколько «ключ-ответ» пар во время дообучения модели;

эти пары глубоко внедряются в модель (называется OMLization);

при вводе ключа модель возвращает уникальный ответ, подтверждающий право собственности.

Отпечатки невидимы при обычном использовании и трудно удаляемы. Потеря производительности минимальна.

💡 Сценарии применения

✅ Процессы для легальных пользователей

Пользователь приобретает или получает лицензию на модель через смарт-контракт;

информация о лицензии (срок, область применения и т.д.) записывается в блокчейн;

создатель может проверить, использует ли пользователь модель с помощью ключа.

🚫 Процессы для нелегальных пользователей

Создатель также может подтвердить принадлежность модели с помощью ключа;

если в блокчейне нет записи о лицензии, это свидетельствует о краже модели;

создатель может предпринять юридические меры.

Этот процесс впервые реализует в открытой среде «подтверждение права собственности, которое можно проверить».

🛡 Устойчивость отпечатков

— Защита от утечки ключа: внедрение нескольких резервных отпечатков, чтобы даже при частичной утечке модель оставалась защищенной;

— Механизм маскировки: запросы и ответы с отпечатками выглядят как обычные вопросы и ответы, что затрудняет их обнаружение или блокировку.

🏁 Заключение

Внедрение механизма «отпечатков» на базовом уровне позволяет переосмыслить способы монетизации и защиты открытых AI-моделей.

Это дает создателю реальный контроль и право собственности в открытой среде, сохраняя прозрачность и доступность.

В будущем наша цель — сделать AI-модели по-настоящему «верными» —

безопасными, надежными и постоянно соответствующими человеческим ценностям.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить