2 Травня, 2025
Новий AI Alliance має на меті покінчити з великим технологічним домінуванням за допомогою даних, що належать користувачем thumbnail
Погляд

Новий AI Alliance має на меті покінчити з великим технологічним домінуванням за допомогою даних, що належать користувачем

Cheqd, Datahive, Nuklai та DataGram запустили Суверенний Альянс AI, нову ініціативу, спрямовану на розробку рамки з відкритим кодом для децентралізованого штучного інтелекту, використовуючи дані, що належать користувачем. Оголошено 1 травня через прес-реліз, який поділився з Crypto.news, Альянс буде зосереджений на створенні технічної інфраструктури, яка підтримує системи AI, що зберігають конфіденційність. В основі”, – Напишіть: www.crypto.news

Cheqd, Datahive, Nuklai та DataGram запустили Суверенний Альянс AI, нову ініціативу, спрямовану на розробку рамки з відкритим кодом для децентралізованого штучного інтелекту, використовуючи дані, що належать користувачем.

Оголошено 1 травня через прес-реліз, який поділився з Crypto.news, Альянс буде зосереджений на створенні технічної інфраструктури, яка підтримує системи AI, що зберігають конфіденційність. В основі проекту є запропонований протокол мережі намірів, який має на меті дозволити агентам AI надійно співпрацювати без шкоди для контролю користувача над персональними даними.

INP структурується навколо трьох ключових компонентів: “Міні” наміри “для збору входів користувачів з гарантіями власності на дані; “Сітка намірів”, децентралізоване середовище для спілкування ШІ; та “Вузли виконання”, які діють на наміри користувачів із вбудованим захистом конфіденційності.

Альянс також окреслив більш широку дорожню карту, яка включає децентралізоване зберігання даних, моделі AI з відкритим кодом та інструменти для агентів AI для трансакції та автономного співпраці. За словами засновників, ці зусилля мають на меті перемістити економіку даних від «на основі уваги» на «на основі намірів», із користувачами в центрі.

Чому цей альянс має значення

SAIA виходить на місце події, коли ретельна перевірка посилює використання централізованих моделей AI для персональних даних, тоді як регулятори в Європі та поза вимогом більше прозорості та контролю користувачів.

Фрейзер Едвардс, генеральний директор CHEQD, в інтерв’ю Crypto.news, що поточні моделі AI часто торгують даними користувачів без змістовної згоди. “Користувачі платять своїми особистими даними, які витягуються, агрегують та комодифікуються”, – сказав він.

За словами Едвардса, підхід Альянсу дозволяє користувачам вибірково ділитися даними, потенційно монетизувати їх та підтримувати можливість відкликання доступу, пропонуючи рівень контролю, який централізовані платформи борються за надання.

Незважаючи на те, що попередні зусилля щодо “оплати користувачів за дані” натрапили, архітектура SAIA розроблена для того, щоб розглядати дані користувачів як повторно використання та перевірку активів у екосистемі на основі згоди. Він також включає інструменти, орієнтовані на відповідність, такі як аудиторські стежки та селективне розкриття інформації, щоб допомогти програмам відповідати глобальним стандартам конфіденційності, як GDPR.

Повна запитання та відповіді з Фрейзером Едвардсом щодо планів, викликів та стимулів користувачів Сая слідує нижче.

Crypto.news: Суверенне бачення альянсу AI полягає у створенні відкритих коду, децентралізованих рамок AI з даними, що належать користувачем. Теоретично це звучить цікаво, але які переваги це надасть перед пропозиціями AI Big Tech? Служби AI пропонуються безкоштовно “безкоштовно”, торгуючи своїми даними, і це було прийнято як нормально роками переважна більшість людей. Чому користувачі та розробники перейдуть на модель самостійного значення? Який реальний стимул (грошовий, конфіденційність чи інше) робить ваш підхід до даних, що належить користувачам, достатньо переконливим для сприяння прийняттю?

Фрейзер Едвардс: Основна перевага моделі суверенного AI альянсу – це вирівнювання. AI, який працює для вас, а не для платформ, що монетить вашу увагу чи дані. Сьогодні “безкоштовні” інструменти AI не справді безкоштовні. Користувачі платять своїми особистими даними, які витягуються, агрегують та комодифікуються, часто способами, якими не можна контролювати чи перевіряти. Це підживлення систем, керованих залученням, які надають пріоритет вірусності та утримання над індивідуальною вигодою.

Приклад реального світу – це зворотний зв’язок проти AI Meta, який вбудований у WhatsApp. Незважаючи на претензії Мета щодо дотримання конфіденційності, користувачі не можуть її вимкнути, і мало хто довіряє компанії діяти в своїх найкращих інтересах. Це розмиває впевненість у управлінні даними Big Tech.

На відміну від цього, суверенний AI побудований навколо даних, що належать користувачем, де люди контролюють, як їх інформація використовується, ділиться та монетизується. Модель самонесеренів дає можливість людям володіти своїми цифровими «я» таким чином, що Big Tech не може запропонувати, не демонструючи всю свою бізнес-модель.

Щоб AI був справді персоналізованим та корисним, він потребує доступу до багатих, міжконтекстуальних даних з повним дозволом. Якщо дані проводяться на платформах, AI залишається обмеженим та безособовим. Суверенний AI дозволяє інтелектуальним системам, які є більш потужними та поважнішими до людей, яким вони обслуговують.

Ця модель дає можливість трьома стимулам сприяти прийняттю:

  • Конфіденційність за проектом: Дані не перевозяться в непрозорі корпоративні системи. Натомість він залишається в контролі користувачів через децентралізовану інфраструктуру ідентичності та зберігання.
  • Грошовий стимул: З такими рамками, як платіжні рейки CHEQD, користувачі та розробники можуть отримати компенсацію за обмін перевіреними даними або навчанням агентів AI, створюючи реальну економіку даних.
  • Справжня персоналізація: Особисті АІ та агенти, як і ті, що розробляються Datahive, можуть діяти від вашого імені на основі ваших справжніх намірів, а не на те, що максимізує дохід від реклами ».

CN: Основна ідея тут полягає в тому, що люди контролюють (і потенційно монетизують) власні дані. Однак багато минулих проектів обіцяли “отримати оплату за свої дані” і боролися, почасти тому, що дані середнього користувача не варті на індивідуальному рівні або варті часу. Як SAIA змінить це рівняння? Чи плануєте ви нагородити користувачів безпосередньо за внесок даних або відгуки про навчання AI, чи користь більш опосередкована (наприклад, краща персоналізація та конфіденційність)? Якщо користувачі не можуть заробити значний дохід, яка жеребкування для них, щоб активно ділитися та керувати своїми даними в цій мережі?

FE: Це правда, що минулі моделі “отримайте за свої дані” часто не вдалося, оскільки вони трактували дані як разовий товар, а не частину поточної екосистеми, що триває. Суверенний альянс AI змінює рівняння шляхом переосмислення даних як багаторазового, високоцінного активності в децентралізованих, заснованих на намірах AI-рамках.

Для CHEQD ми підходимо до цього, дозволяючи людям контролювати та повторно використовувати власні дані, але так само важливо, що ми будуємо інфраструктуру, яка стимулює компанії та силови даних, щоб випустити ці дані в першу чергу.

Замість того, щоб обіцяти швидкі мікро винагороди за ізольовані точки даних, інфраструктура Cheqd підтримує модель, де користувачі можуть вибірково ділитися перевіреними, багаторазовими даними, такими як облікові дані, уподобання чи згода, на їх умовах. Це відкриває потенціал для більш значущої довгострокової цінності, будь то в персоналізованих службах AI, вибірковій монетизації чи просто кращий контроль. Справжня зміна полягає у відновлювальній потужності: робить його життєздатним для користувачів брати свої дані та використовувати їх у різних системах AI, не потрапляючи в силосу ».

CN: За допомогою даних, що належать користувачем, в центрі, як ви вирішуєте конфіденційність та дотримання з самого початку? Якщо персональні дані використовуються для навчання або інформування моделей AI, чи користувачі мають тонкозернистий контроль та можливість відмовитися від даних або скасувати дані? Останні регуляторні дії показують, що це критично – наприклад, орган захисту даних Італії тимчасово заборонив чатгпт щодо “відсутності будь -якої юридичної основи” для його масового збору персональних даних для навчання. Як підхід SAIA буде відрізнятися за обробкою даних користувачів, щоб він залишався сумісним із законами про конфіденційність (GDPR та іншими) та етичними нормами?

FE: Відповідність та конфіденційність є основними для архітектури Саї. Фондом SAIA є суверенітет користувача за замовчуванням, без необхідності центральних силосів даних, на відміну від типових моделей AI, які збирають дані оптом без змістовної згоди.

  • Дані залишаються під контролем користувачів
    Користувачі можуть надати, скасувати або обмежувати доступ до своїх даних у будь -який час, використовуючи децентралізовану ідентичність (CHEQD) та протоколи зберігання (DataGram та інші). Цей механізм відповідає поняттям GDPR, як мінімізація даних та право на забуття.
  • Згода явна і відкликана
    Ми є
    що розвивається Системи, які дозволяють користувачам висловлювати явну згоду на використання своїх даних, наприклад, для обміну обліковими записами, взаємодією агента або навчанням ШІ. За допомогою перевірених записів про згоду та конкретних випадків використання, юридичні основи та відстеження гарантуються.
  • Вбудований інструмент дотримання
    Ми створюємо вбудовані функції відповідності, як-от аудиторські стежки, походження даних та селективне розкриття інформації, так що агенти та програми AI, що використовують рамки SAIA, не просто вирівнюються конфіденційністю, а догідно відповідають глобальними нормами. “

CN: Cheqd приносить децентралізовану ідентичність (самозв’язку ідентичність / SSI) та інфраструктуру перевірки до Альянсу. Як SSI буде включено до рамки AI? Наприклад, чи будуть якори наміри використовувати цифрові ідентичності для перевірки походження даних або репутації агентів ШІ? І враховуючи, що децентралізована ідентичність все ще є зародженою, навіть експерти з ідентичності зазначають, що прийняття є найбільшою проблемою завдяки додатковій складності для користувачів та організацій, як ви заохочуєте та завантажуєте використання SSI в межах SAIA?

FE: “SSI відіграє ключову роль у архітектурі суверенного AI альянсу. Саме рівень довіри з’єднує агентів, людей та даних. Ось як ми маємо намір вийти за межі перешкод прийняття та як децентралізована інфраструктура ідентичності Cheqd входить до рамки.

Це стосується і самих агентів ШІ: видавши підтверджувані облікові дані агентам, ми можемо встановити репутацію, спроможність та справжність. Це важливо для довіри до взаємодій агента до агента або агента-споживача.

Усиновлення справді є найбільшим викликом для SSI сьогодні. Поки CHEQD знаходиться в інфраструктурному шарі, Datahive безпосередньо стикається з клієнтами, таким чином пропонуючи рішення для самих споживачів, в яке вони потім можуть внести свої дані ».

ПОВ'ЯЗАНІ НОВИНИ

XRP відступає, коли SEC затримує рішення Franklin Templeton ETF

cryptonews

Бессентні обітниці казначейства зберегти нас “найкращим місцем для прибуття капіталу”

cryptonews

Web3 не буде масштабувати, поки гаманці не виростуть | Думка

cryptonews

Залишити коментар

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More