Технологии типа scaffolding, хотя и вызывают большие надежды, по правде говоря, не решают фундаментальную проблему галлюцинаций ИИ. Посмотрите, чем сейчас занимаются крупные модели — генерируют ложную информацию, выдумывают данные, бредят — эти проблемы возникают один за другим. Полуфабрикатные ограничения полезны? Они имеют определённое значение, но далеко не достаточно. Пока не будет кардинально улучшена механика обучения моделей и система проверки знаний, эти меры по исправлению могут лишь смягчить поверхностные симптомы. Текущее направление развития ИИ всё ещё требует более глубоких прорыв
Посмотреть Оригинал