6 Травня, 2025
AI з відкритим кодом не є кінцевою грою- thumbnail
NFT

AI з відкритим кодом не є кінцевою грою-

Розкриття: Погляди та думки, висловлені тут, належать виключно автору і не представляють поглядів та думок редакції Crypto.News. У січні 2025 року R1 DeepSeek перевершив чатгпт як найбільш завантажений безкоштовний додаток у магазині додатків Apple США. На відміну від власних моделей, таких як Chatgpt, DeepSeek є відкритим кодом, це означає, що кожен може отримати доступ до”, – Напишіть: www.crypto.news

Розкриття: Погляди та думки, висловлені тут, належать виключно автору і не представляють поглядів та думок редакції Crypto.News.

У січні 2025 року R1 DeepSeek перевершив чатгпт як найбільш завантажений безкоштовний додаток у магазині додатків Apple США. На відміну від власних моделей, таких як Chatgpt, DeepSeek є відкритим кодом, тобто кожен може отримати доступ до коду, вивчити його, ділитися ним та використовувати його для власних моделей.

Цей зсув викликав хвилювання щодо прозорості в ШІ, підштовхуючи галузь до більшої відкритості. Лише тижні тому, у лютому 2025 року, Antropic випустив Claude 3.7 Sonnet, гібридну модель міркування, яка частково відкрита для попереднього перегляду досліджень, також посилюючи розмову навколо доступного ШІ.

Однак, хоча ці розробки сприяють інноваціям, вони також піддають небезпечному помилковому уявленні: що AI з відкритим кодом за своєю суттю є більш безпечним (і безпечнішим), ніж інші закриті моделі.

Обіцянка та підводні камені

Моделі AI з відкритим кодом, такі як Deepseek’s R1 та останні агенти кодування Deepseek та показують нам силу доступних технологій. DeepSeek стверджує, що він побудував свою систему всього 5,6 мільйонів доларів, майже на одну десяту вартість моделі LLAMA META. Тим часом, агент Repit, наддувний Sonnet Claude 3,5, дозволяє будь-кому, навіть некозерам, створювати програмне забезпечення з підказок природної мови.

Наслідки величезні. Це означає, що в основному всі, включаючи менші компанії, стартапи та незалежні розробники, тепер можуть використовувати цю існуючу (і дуже надійну) модель для створення нових спеціалізованих програм AI, включаючи нові агенти AI, за значно меншими витратами, більш швидкою ставкою та з більшою легкістю в цілому. Це може створити нову економіку AI, де доступність для моделей – King.

Але там, де світить відкритий код-доступність-він також стикається з посиленим контролем. Вільний доступ, як видно з моделлю Deepseek на 5,6 мільйона доларів, демократизує інновації, але відкриває двері до кібер -ризиків. Зловмисні суб’єкти могли налаштувати ці моделі для створення зловмисного програмного забезпечення або використання вразливості швидше, ніж з’являються патчі.

AI з відкритим кодом за замовчуванням не бракує гарантій. Він ґрунтується на спадщині прозорості, яка десятиліттями укріпила технології. Історично інженери спиралися на «безпеку через обдуману», приховані деталі системи за власними стінами. Такий підхід спалахнув: вразливості з’явилися, часто виявляли спочатку погані актори. Відкритий код перегорнув цю модель, викривши код-як R1 Deepseek або агент відповіді-для публічного контролю, що сприяє стійкості завдяки співпраці. Тим не менш, ні відкриті, ні закриті моделі AI по суті гарантують надійну перевірку.

Етичні ставки так само критичні. AI з відкритим кодом, як і його закриті аналоги, може відображати упередження або створювати шкідливі результати, корінням у навчальних даних. Це не вада, унікальна для відкритості; Це виклик підзвітності. Тільки прозорість не стирає ці ризики, а також не заважає зловживанням. Різниця полягає в тому, як відкритий код запрошує колективний нагляд, силу, якої часто не вистачає власних моделей, хоча вона все ще вимагає механізмів для забезпечення цілісності.

Потреба у перевірці AI

Щоб AI з відкритим кодом більше довіряв, йому потрібна перевірка. Без нього як відкриті, так і закриті моделі можуть бути змінені або неправильно використані, посилюючи дезінформацію або перекошування автоматизованих рішень, які все частіше формують наш світ. Недостатньо для моделей бути доступними; Вони також повинні бути аудиторськими, захищеними від підробки та підзвітними.

Використовуючи розподілені мережі, Blockchains може засвідчити, що моделі AI залишаються незмінними, їхні навчальні дані залишаються прозорими, а їх результати можуть бути підтверджені проти відомих базових ліній. На відміну від централізованої перевірки, яка залежить від довіри до однієї сутності, децентралізований криптографічний підхід Blockchain зупиняє поганих акторів від підробки за закритими дверима. Він також перевертає сценарій на сторонній контроль, поширюючи нагляд за мережею та створюючи стимули для більш широкої участі, на відміну від сьогоднішнього дня, де неоплачені учасники палива трильйонних наборів даних без згоди чи винагороди, а потім платять за використання результатів.

Рамка перевірки блокчейна приносить шари безпеки та прозорості до AI з відкритим кодом. Зберігання моделей Onchain або через криптографічні відбитки пальців забезпечують відстеження модифікацій відкрито, дозволяючи розробникам та користувачам підтвердити, що вони використовують передбачувану версію.

Захоплення навчальних даних про походження на блокчейні доводить, що моделі, витягнуті з неупереджених, джерел якості, скорочення ризиків прихованих упереджень або маніпульованих входів. Крім того, криптографічні методи можуть перевіряти результати, не розкриваючи персональні дані, які користувачі діляться (часто незахищені), збалансування конфіденційності з довірою як моделі зміцнюються.

Прозорий, стійкий до підробки блокчейна пропонує підзвітність AI з відкритим кодом, відчайдушно потребує. Там, де зараз системи AI процвітають на даних користувачів з невеликим захистом, blockchain може винагородити учасників та захистити їх введення. Збиваючи криптографічні докази та децентралізоване управління, ми можемо побудувати екосистему AI, яка є відкритою, безпечною та меншою для централізованих гігантів.

Майбутнє AI засноване на довірі … Onchain

AI з відкритим кодом-це важлива частина головоломки, і галузь ШІ повинна працювати над тим, щоб досягти ще більшої прозорості-але бути відкритим кодом-це не кінцеве призначення.

Майбутнє AI та його актуальність буде побудовано на довірі, а не лише доступності. І довіра не може бути відкритою. Він повинен бути побудований, перевірений та посилений на кожному рівні стека AI. Наша галузь повинна зосередити свою увагу на рівні перевірки та інтеграції безпечного ШІ. Наразі, принесення AI Onchain та використання Blockchain Tech – це наша найбезпечніша ставка для побудови більш надійного майбутнього.

Девід Ранг

Девід Ранг є співзасновником та генеральним директором компанії Warder Protocol, компанії, яка зосереджується на залученні безпечного AI до Web3. Перед тим, як співзасновник-засновник, він очолював дослідження та розробки в Qredo Labs, керував інноваціями Web3, такими як без громадянські ланцюги, WebAssembly та Zero-Knowleds. До Кредо він виконував роль у продукті, аналітиці даних та операцій як у Uber, так і в Binance. Девід розпочав свою кар’єру фінансовим аналітиком з венчурного капіталу та приватного капіталу, фінансуючи стартапи з високим ростом. Він має MBA з Пантеон-Сорбонського університету.

ПОВ'ЯЗАНІ НОВИНИ

Shiba INU травень 2025 р. Прогнозування ціни | Чи є Шиб хороша інвестиція?

cryptonews

Claynosaurz розширюється до SUI, запускаючи нові NFTS та мобільну гру

coin telegraph

Біткойн потрапляє в технічну стелю: чи є падіння до 86 тис. Доларів далі?

cryptonews

Залишити коментар

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More