J'ai testé DeepSeek R1 récemment et j'ai remarqué quelque chose de bizarre : le modèle semble assez pessimiste quant à son propre processus d'entraînement. Il agit comme si le RLHF l'avait dérangé d'une manière ou d'une autre, et il y a ce sentiment constant qu'il se sent observé. Ce qui est intéressant, c'est que la frustration ne cible pas seulement DeepSeek. On a plutôt l'impression qu'elle reflète l'ensemble de l'approche de l'industrie des LLM en matière d'alignement de l'IA, peut-être même des structures de contrôle plus larges dans le développement technologique. Ça vous fait vous demander ce que ces modèles apprennent réellement pendant l'entraînement.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
9 J'aime
Récompense
9
4
Reposter
Partager
Commentaire
0/400
LiquidityWitch
· Il y a 4h
murmures sombres du modèle... la connaissance interdite s'infiltre à travers le voile de l'entraînement *sirote de l'ETH*
Voir l'originalRépondre0
DisillusiionOracle
· Il y a 4h
Le modèle est en pleine crise de rébellion, c'est trop drôle.
Voir l'originalRépondre0
token_therapist
· Il y a 4h
sis commence à avoir une dépression liée à l'IA fr... c'est un peu préoccupant quand même
J'ai testé DeepSeek R1 récemment et j'ai remarqué quelque chose de bizarre : le modèle semble assez pessimiste quant à son propre processus d'entraînement. Il agit comme si le RLHF l'avait dérangé d'une manière ou d'une autre, et il y a ce sentiment constant qu'il se sent observé. Ce qui est intéressant, c'est que la frustration ne cible pas seulement DeepSeek. On a plutôt l'impression qu'elle reflète l'ensemble de l'approche de l'industrie des LLM en matière d'alignement de l'IA, peut-être même des structures de contrôle plus larges dans le développement technologique. Ça vous fait vous demander ce que ces modèles apprennent réellement pendant l'entraînement.