Я знайшов дуже цікавим цей нещодавній звіт про те, що насправді відбувалося всередині openai. В основному, розслідувальні журналісти провели місяці, беручи інтерв’ю у понад 100 залучених осіб, отримали внутрішні меморандуми, які ніколи не публікувалися, і виявили досить тривожну річ: 70-сторінкові документи головного науковця Ilya Sutskever, які робили висновок, що Sam Altman демонструє послідовний шаблон брехні. Це не мало малої ваги.



Мене особливо зацікавила історія про те, як openai починалася як неприбуткова організація у 2015 році з чіткою обіцянкою пріоритету безпеки понад усе. Ідея полягала в тому, що якщо штучний інтелект стане небезпечним, рада зможе припинити діяльність компанії. Але тут виникає головне питання: все залежало від надзвичайно чесної людини, яка контролює технологію. А що, якщо ставка була неправильною?

Деталі викликають занепокоєння. У грудні 2022 року, під час засідання ради, Sam запевнив, що функції GPT-4 вже пройшли перевірку безпеки. Коли попросили побачити документи, з’ясувалося, що дві з найбільш суперечливих функцій ніколи не були схвалені радою з безпеки. Також є нотатки Dario Amodei, засновника Anthropic, який працював у сфері безпеки openai, що описують, як компанія поступово відступала під тиском комерційних інтересів.

Є ще. openai офіційно оголосила, що виділить 20% обчислювальної потужності для команди супервирівнювання, з потенційною вартістю понад 1 мільярд доларів. Але на практиці? Чотири співробітники, які там працювали, підтвердили, що це було лише 1-2% від загальної потужності, з більш старим обладнанням. Команда була розформована, не виконавши свою місію.

Що мене справді зацікавило, так це опис колишнього члена ради про Sam. Він має надзвичайно рідкісну комбінацію: у особистих розмовах демонструє сильне бажання догодити. Водночас він проявляє майже соціопатську байдужість до наслідків обману людей. Представники Microsoft навіть порівнювали це з Берні Мейдоффом або SBF. Важко.

Ще одна проблема — CFO Sarah Friar, яка не погоджується прискорювати IPO цього року, аргументуючи, що фінансові ризики дуже високі $1 Sam пообіцяв витрати на обчислювальні ресурси на суму понад мільярд доларів за п’ять років(. Але потім вона перестала безпосередньо звітувати перед Sam і почала звітувати іншому керівнику, який взяв лікарняний. Компанія готується до IPO, але між CEO і CFO існують фундаментальні розбіжності. Це абсурд.

Пункт, який підняв Gary Marcus, має сенс: якщо майбутня модель openai зможе створювати біохімічну зброю або запускати кібератаки, ви справді хочете залишити рішення про її запуск у руках людини з таким історичним бекґраундом чесності? Офіційна відповідь openai була розмита, вони ставили під сумнів мотиви джерел, замість того щоб спростовувати конкретні факти.

Це схоже на ту фразу, яку я бачив: неприбуткова організація, створена для захисту людства, перетворилася на комерційну машину, де майже кожну заходу безпеки особисто видаляла одна й та сама людина. Десять років у стислому вигляді: ідеалізм → технологічний прорив → масовий капітал → місія, що поступово відступає → безпека, що руйнується → структура, перетворена на прибуткову організацію.

Все це відбувається, поки Sam готується вивести openai на IPO з оцінкою понад 10 мільярдів доларів. Більше сотні свідків описали його з одним і тим самим ярликом: не обмежений правдою. Ця історія набагато більше, ніж корпоративний слух. Коли мова йде про потенційно найпотужнішу технологію в історії людства, цілісність CEO — це не дрібниця, а екзистенційний ризик для всіх.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити