““Будь ласка” та “Дякую” просто хороші манери, чи вони змінюють, як чатгпт навчається, поводиться та коштує штучного інтелекту OpenAI щодня? Сказати, що “будь ласка”, можливо, коштуватиме мільйони, це те, що більшість із нас навчали як діти. Скажіть “будь ласка”. Скажи “Дякую”. Ввічливість нічого не коштує. Але з штучним інтелектом, ця стара мудрість може”, – Напишіть: Crypto.news
“Будь ласка” та “Дякую” просто хороші манери, чи вони змінюють, як чатгпт навчається, поводиться та коштує штучного інтелекту OpenAI щодня?
Кажучи, що “будь ласка” може коштувати мільйони
Це те, що більшість із нас навчали як діти. Скажіть “будь ласка”. Скажи “Дякую”. Ввічливість нічого не коштує. Але з штучним інтелектом ця стара мудрість більше не може бути правдою. Бути ввічливою до чат -бота може насправді прийти з ціною.
У короткому обміні на X генеральний директор OpenAI Сем Альтман розкрив цікаву деталь про те, як працюють системи AI. На запитання, скільки коштує OpenAI, коли користувачі містять додаткові слова, такі як “Будь ласка” та “Дякую” у своїх запитах Chatgpt, Альтман відповів: “Десятки мільйонів доларів добре витрачені. Ніколи не знаєте”.
Десятки мільйонів доларів добре витрачені – ніколи не знаєте
– Сем Альтман (@Sama) 16 квітня 2025 року
Кожне слово, яке ми вводимо в чатгпт, обробляється через величезні центри обробки даних, де воно розбивається на жетони, проходить через складні обчислення та перетворюється на відповідь. Навіть невеликі приємності ставляться однаково. Вони потребують обчислювальної потужності.
Це означає електроенергію, системи охолодження та більше часу, витраченого на запит. При множенні на мільйони розмов, ці кілька додаткових жетонів складаються з реальними витратами на енергію та інфраструктуру.
Згідно з опитуванням у грудні 2024 року майбутнім, материнською компанією Techradar, 51% користувачів AI у США та 45% у Великобританії регулярно використовують помічники або чатів.
Серед них американці, швидше за все, були ввічливими. У США 67% користувачів сказали, що вони розмовляють з AI з ввічливістю. З них 82% сказали, що це тому, що це відчуває себе правильною справою, незалежно від того, одержувач є людиною чи ні.
Інші 18% мають іншу мотивацію. Вони сказали, що вони залишаються ввічливими на всякий випадок, коли коли -небудь виникає повстання AI – давно, але той, кого вони не хочуть ризикувати бути на неправильній стороні.
Тоді залишаються 33% американських користувачів, які не турбуються з приємністю. Для них мета – швидко отримати відповіді. Вони або вважають ввічливість непотрібною, або вважають, що це уповільнює їх. Ефективність, а не етикет, формує те, як вони взаємодіють.
Кожна відповідь Chatgpt працює від обчислювальних систем, які споживають як електроенергію, так і воду. Те, що здається простим зворотним та назад, приховує важку ресурс операцію, тим більше, що кількість користувачів продовжує зростати.
У звіті Goldman Sachs підрахував, що кожен запит CHATGPT-4 використовує близько 2,9 ват-години електроенергії, майже в десять разів більше, ніж один пошук Google.
Нові моделі, такі як GPT-4O, підвищили ефективність, скорочуючи цю фігуру приблизно до 0,3 ват-години за запит, згідно з епохом AI. Тим не менш, коли мільярди запитів роблять щодня, навіть невеликі відмінності швидко складаються.
Операційні витрати OpenAI відображають цю шкалу. Як повідомляється, компанія витрачає близько 700 000 доларів на день, щоб продовжувати працювати Chatgpt, виходячи з внутрішніх оцінок, цитованих у різних галузевих джерелах.
Основною причиною цієї вартості є його масивна база користувачів. У період з грудня 2024 року та на початку 2025 року користувачі щотижня підскочили з 300 мільйонів до понад 400 мільйонів, які частково керують вірусними функціями, такими як підказки мистецтва в стилі Ghibli. Як використання використання, так і попит на електромережі та фізичну інфраструктуру.
Міжнародне енергетичне агентство проектує, що центри обробки даних до 2030 року будуть сприяти більшому зростанню попиту на електроенергію в передових економіках, причому ШІ визначено як основний рушій цього сплеску.
Вода – ще одна частина рівняння, часто не помічається. У дослідженні Washington Post було встановлено, що на складі електронної пошти, що генерується на 100 слів AI, використовується близько 0,14 кіловат-години електроенергії, достатньо, щоб освітлити 14 світлодіодних лампочок протягом години.
Генерування цієї самої відповіді може споживати від 40 до 50 мілілітрів води, в основному для охолодження серверів, які обробляють дані.
У масштабі цей рівень споживання викликає більш широкі проблеми. У Вірджинії, державі з найвищою щільністю центрів обробки даних у США, використання води зросло майже на дві третини між 2019 та 2023 роками. Відповідно до розслідування Financial Times, загальне споживання досягло щонайменше 1,85 мільярда галонів у 2023 році.
Оскільки центри обробки даних продовжують поширюватися по всьому світу, особливо в районах з дешевшою електроенергією та землею, очікується, що тиск на місцеві водопостачання та енергетики зросте. Деякі з цих регіонів можуть не бути обладнані для вирішення довгострокового впливу.
Який ваш тон вчить ШІ
У системах AI, які навчаються на великих обсягах людського діалогу, тон підказки користувача може сильно впливати на тон відповіді.
Використання ввічливої мови або повних речення часто призводить до відповідей, які відчувають себе більш інформативними, контекстними та поважними. Цей результат не випадковий.
За лаштунками такі моделі, як Chatgpt, навчаються на величезних наборах даних людського письма. Під час тонкої настройки вони проходять процес, відомий як підкріплення навчання з відгуків людини.
На цьому етапі реальні люди оцінюють тисячі модельних відповідей на основі таких критеріїв, як корисність, тон та узгодженість.
Коли добре структурована або ввічлива підказка призводить до більш високого рейтингу, модель починає сприяти цьому стилю. З часом це створює вбудовану перевагу чіткості та шанобливих мовних моделей.
Приклади в реальному світі посилюють цю ідею. В одному неформальному експерименті Reddit користувач порівнював відповіді AI з тим же питанням, обрамленим і без слів “будь ласка” та “дякую”. Ввічлива версія часто спрацьовувала довші, більш ретельні та більш релевантні відповіді.
Окремий аналіз, опублікований на Hackernoon, виявив, що нестабільні підказки, як правило, генерували більш фактичні неточності та упереджений вміст, в той час як помірно ввічливі вразили найкращий баланс між точністю та деталями.
Шаблон зберігається і на мовах. У перехресному тесті, що включає англійську, китайську та японську мову, дослідники зауважили, що грубі підказки деградували продуктивність моделі по всій дошці.
Бути надзвичайно ввічливою не завжди дав кращих відповідей, але поміркована ввічливість взагалі покращила якість. Результати також натякали на культурні нюанси, показуючи, що те, що вважається “правильним” рівнем ввічливості, може змінюватися залежно від мови та контексту.
Однак, ввічливість – це не завжди срібна куля. Нещодавній огляд оперативного інженерії перевірив 26 стратегій для покращення продукції AI. Серед них додавали слова на кшталт “будь ласка”.
Результати показали, що хоча такі фрази іноді допомагали, вони послідовно не покращували правильність у GPT-4. У деяких випадках додавання додаткових слів, що вводять шум, роблять відповіді менш чіткими або точними.
Більш детальне дослідження, проведене в березні 2025 року, вивчало ввічливість на восьми різних рівнях, починаючи від надзвичайно офіційних запитів до відвертої груби.
Дослідники вимірювали результати, використовуючи орієнтири, такі як Bertscore та Rouge-L для завдань узагальнення. Точність та релевантність залишалися досить послідовними незалежно від тону.
Однак тривалість відповідей змінювалася. GPT-3,5 та GPT-4 дали коротші відповіді, коли підказки були дуже різкими. Llama-2 поводився по-різному, створюючи найкоротші відповіді в ввічливості середнього діапазону та довші в крайніх крайнощах.
Ввічливість також впливає на те, як моделі AI обробляють зміщення. У тестах на виявлення стереотипу як надмірно ввічливі, так і ворожі підказки збільшували шанси упереджених або відмову від відповіді. Ввічливість середнього класу виконала найкраще, мінімізуючи як упередженість, так і непотрібну цензуру.
Серед тестованих моделей, GPT-4 була найменшою ймовірністю відмовилася відверто, але все показало подібну схему-здається, є солодке місце, де тон допомагає моделі точно реагувати без порушення балансу.
Врешті -решт, що ми говоримо, і як ми це говоримо, формує те, що ми повертаємось. Незалежно від того, чи ми прагнемо до кращих відповідей, менше упередженості чи просто більш продуманої взаємодії, наш вибір слів має вагу.
І хоча ввічливість може не завжди підвищити продуктивність, це часто наближає нас до тієї розмови, з якою ми хочемо від машин, з якими ми все частіше розмовляємо.