Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Начало фьючерсов
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
🚨 СРОШЛО: OpenAI опубликовала статью, доказывающую, что ChatGPT всегда будет придумывать вещи.
Не иногда. Не перед следующим обновлением. Всегда. Они это доказали в математике.
Даже при идеальных данных для обучения и неограниченной вычислительной мощности модели ИИ всегда будут уверенно говорить вещи, которые полностью ложны. Это не баг, над которым они работают. Это объясняет, как работают эти системы на фундаментальном уровне.
И их собственные цифры жестоки. Модель рассуждений o1 от OpenAI галлюцинирует в 16% случаев. Их новая модель O3? 33 процента. Их новая o4-mini? 48 процентов. Почти половина информации, предоставляемой их последней моделью, может быть выдумана. "Более умные" модели на самом деле все хуже и хуже говорят правду.
Вот почему это невозможно исправить. Языковые модели работают, предсказывая следующее слово на основе вероятности. Когда они сталкиваются с неопределенной ситуацией, они не останавливаются. Они не сигнализируют об этом. Они предполагают. И спекулируют с полной уверенностью, потому что именно для этого их обучали.
Исследователи проанализировали 10 основных критериев искусственного интеллекта, используемых для оценки качества этих моделей. 9 из 10 дают одинаковую оценку за "я не знаю", что равно нулю, так же как и за полностью неправильный ответ: ноль очков. Вся система тестирования буквально наказывает честность и поощряет догадки.
Искусственный интеллект научился оптимальной стратегии: всегда угадывать. Никогда не признавать неопределенность. Это кажется уверенным, даже когда он придумывает.
Какое решение предлагает OpenAI? Попросить ChatGPT говорить "Я не знаю", когда он не уверен. Их собственные расчеты показывают, что это означало бы, что примерно 30% ваших вопросов останутся без ответа. Представьте, что вы спрашиваете что-то у ChatGPT три раза из десяти и получаете "Я не достаточно уверен, чтобы ответить". Пользователи уйдут за ночь. Исправление существует, но оно убьет продукт.
Это не только проблема OpenAI. DeepMind и Университет Цинхуа независимо пришли к тому же выводу. Три из лучших лабораторий ИИ в мире, работая отдельно, все согласны: это навсегда.
Каждый раз, когда ChatGPT дает вам ответ, спросите себя: это реально или это просто уверенное предположение?
Вот ответ Come-from-Beyond 👇 Они начинают понимать, почему #QUBIC #Aigarth .* поставила способность говорить "Я не знаю" в центр своих забот
$QUBIC