OpenAI було розкрито до основи: теорія змови про перехід від неприбуткової до прибуткової організації

OpenAI систематично та навмисно здійснює фундаментальний перехід від «для благополуччя людства» до «для прибутку інвесторів», генеральний директор Альтман має довгострокову, добре задокументовану модель непослідовних слів та дій, маніпулювання інформацією та обходу нагляду, а також глибоку прив'язку особистих інвестицій до бізнесу компанії. (Синопсис: GPT-5 дебютує цього літа!) Сем Альтман розкриває план моделі наступного покоління OpenAI, амбіції StarGate, чи буде реклама? (Передісторію додано: Ударна бомба OpenAI!) Придбання легендарного дизайнера Apple Джоні Айва Іо, Альтман: «Найфантастичніше залізо штучного інтелекту» вже на підході) Інтерактивний звіт обсягом понад 50 сторінок і понад 10 000 слів розкриває еволюцію OpenAI від некомерційної дослідницької лабораторії до комерційного гіганта. Нещодавно дві некомерційні організації з нагляду за технологіями, Midas Project і Tech Oversight Project, опублікували глибоке розслідування під назвою OpenAI Archives. Звіт, який очолив Тайлер Джонстон, виконавчий директор проекту Midas, зайняв майже рік збору публічної інформації та місяць інтенсивного написання. У звіті його називають «найповнішою на сьогоднішній день компіляцією задокументованих занепокоєнь щодо OpenAI з точки зору практики корпоративного управління, чесності керівництва та організаційної культури». Прочісуючи велику кількість публічних матеріалів, таких як файли розкриття інформації, судові процеси, відкриті листи та повідомлення ЗМІ, інтерактивний звіт обсягом понад 10 000 слів виявив, що OpenAI систематично та навмисно здійснює фундаментальний перехід від «для благополуччя людства» до «для прибутку інвесторів», при цьому генеральний директор Альтман має довгострокову, добре задокументовану модель непослідовних слів та дій, маніпулювання інформацією та ухилення від нагляду, а також глибоку прив'язку особистих інвестицій до бізнесу компанії. OpenAI розходиться, коли справа доходить до безпеки та прозорості, а її публічні зобов'язання грубо відірвані від внутрішніх практик. Звіт розділений на чотири основні теми: реструктуризація, доброчесність генеральних директорів, прозорість та безпека, а також конфлікт інтересів. Ступінь того, наскільки керівники та члени правління OpenAI прямо чи опосередковано отримали вигоду від успіху компанії, викликає занепокоєння. Це включає аналіз портфеля генерального директора Альтмана за участю Retro Biosciences, Helion Energy, Reddit, Stripe та низки інших компаній, які мають партнерство з OpenAI. Реструктуризація: ретельно продумана «зрада місії» У звіті наголошується, що OpenAI систематично та навмисно намагається демонтувати основні етичні та структурні стовпи свого заснування, і що її дії серйозно розходяться з публічними заявами, по суті, є фундаментальним переходом від «на благо людства» до «заради прибутку інвесторів». По-перше, звіт показує одночасний розпад двох основних стовпів OpenAI — «обмеження прибутку» та «нагляд за некомерційними організаціями». Оригінальна модель «Обмеженого прибутку» була його основною філософією, яка була спрямована на те, щоб гарантувати, що величезне багатство, створене AGI, буде розділене з усім людством, і запобігти надмірній концентрації багатства. Однак це зобов'язання поступово вихолощувалося: від скорочення мультиплікаторів прибутку, які нібито посилюють місію, до таємного введення пункту про «автоматичне зростання на 20% на рік», що робить його функціонально непотрібним, до остаточного плану повного зняття обмеження, що знаменує кінець ідеї розподілу багатства. У той же час її механізми нагляду були спритно ослаблені. OpenAI перетворилася з організації, яка повністю контролюється некомерційною організацією, на корпорацію, що приносить суспільну користь у штаті Делавер. Юридичне зобов'язання змінилося з «пріоритету місії» на «збалансування інтересів акціонерів та суспільних інтересів». У звіті наголошується, що «в історії немає прецеденту, коли акціонери успішно подавали позови для захисту суспільних інтересів», що робить обіцянки pro bono практично неможливими для виконання в юридичній практиці. Це свідчить про те, що зобов'язання НСТУ щодо «суспільного блага» насправді можуть бути зведені до оболонки, що забезпечує величезне юридичне прикриття для досягнення максимізації прибутку. Джерело зображення: openaifiles.org/ сайт Звіт також спростовує офіційну риторику OpenAI про відмову від своїх зобов'язань на тій підставі, що "галузь є висококонкурентною". Посилаючись на ранні статути компанії та внутрішні електронні листи, звіт доводить, що OpenAI передбачала та була готова впоратися з інтенсивною конкуренцією в галузі з моменту свого заснування. Тому використання конкуренції як виправдання для відмови від обіцянок є неспроможною «ревізіоністською історією». Справжня мотивація цього полягає саме в тому, що інвестори та керівники компанії вірять у її величезний потенціал прибутку, тому дуже важливо зняти обмеження. Доброчесність генерального директора: моделі поведінки генерального директора викликають кризу довіри У звіті також зазначається, що генеральний директор Альтман має давню, добре задокументовану модель непослідовних висловлювань і дій, маніпулювання інформацією та ухилення від нагляду, а також надання пріоритету особистим інтересам над організаційною відповідальністю. У звіті наводиться кілька прикладів того, як Альтман відкрито брехав або вводив в оману з основних питань. Приклад: Щодо угоди про неприниження працівниками, Альтман публічно стверджував, що не знав про пункт про «позбавлення справедливості працівників, які звільняються», але досьє показує, що він прямо санкціонував цей пункт. У свідченнях у Сенаті під присягою він стверджував, що не має частки в OpenAI, але пізніше визнав, що володів нею опосередковано через фонд. Той факт, що він особисто володіє фондом стартапів OpenAI, довгий час приховувався від правління. Хелен Тонер, колишня членкиня правління, прямо звинуватила Альтмана в перешкоджанні роботі ради директорів шляхом «приховування інформації, спотворення фактів і навіть відвертої брехні». Звіт також показує, що ця модель поведінки зберігалася протягом усієї його кар'єри: під час його роботи в Loopt старші співробітники двічі намагалися змусити раду директорів звільнити його, посилаючись на «оманливу та хаотичну» поведінку. Під час роботи в Y Combinator він нехтував своїми обов'язками, зосередившись на особистих проектах, і в кінцевому підсумку був «запрошений» засновником Полом Гремом. Найдраматичнішим проявом є те, що після звільнення з правління OpenAI він використав свій вплив, щоб скасувати операцію, успішно досягнувши «зворотної реакції» системи нагляду, «видаливши своїх членів правління та встановивши власних союзників» як умову повернення. Операційні ризики та ризики безпеки: системний невиконання зобов'язань щодо безпеки Звіт виявляє системну розбіжність між словами та діями OpenAI, коли йдеться про безпеку та прозорість, із серйозним розривом між її публічними зобов'язаннями та внутрішніми практиками. Корпоративна культура демонструє тенденцію до «тільки швидкого, але не зламаного», і систематично послаблює, обходить і навіть карає внутрішній контроль за безпекою та інакомислення з метою переслідування бізнес-інтересів та конкурентних переваг. Звіт виявляє систематичну невідповідність між словами та діями OpenAI, коли йдеться про безпеку та прозорість. Компанія обіцяла виділити 20% своїх обчислювальних ресурсів «супер-вирівняній» команді безпеки, але, за словами колишнього глави Яна Лейка, цей ресурс так і не був виділений. Під час розробки GPT-4o команду безпеки попросили «прискорити» тестування перед випуском продукту, і компанія планувала святкування релізу ще до початку оцінки. Що ще серйозніше, компанія погрожує співробітникам, що звільняються, драконівськими угодами про вихідну допомогу, які обійдуться компанії в мільйони доларів у разі критики. Співробітник Леопольд Ашенбреннер був звільнений за те, що подав до ради директорів службову записку про ризики національній безпеці, і компанія прямо повідомила йому, що причина звільнення полягала в тому, що він «зробив все можливе», щоб повідомити про проблеми з безпекою. У звіті також вказується, що у 2023 році OpenAI мала серйозний інцидент безпеки щодо злому та крадіжки технічних деталей ШІ, але вона не звітувала перед компанією протягом року.

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити