Résultats de la recherche pour "SFT"
04:28
🔥StartupMining ces activités sont en cours : $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅$UNIOMining prend en charge $UNIO et $USDTPool de minage, le taux de rendement annuel de $UNIOPool de minage atteint jusqu'à 1898,32%. ✅Le minage $SFT supporte les pools de minage $SFT et $ETH, avec un taux de rendement annuel allant jusqu'à 518.2% pour le pool de minage $SFT ; ✅ Le taux de rendement annuel de l'extraction de $X atteint jusqu'à 508.06% ; ✅La fonction d'extraction de $CYCON prend en charge $CYCON et $GTPool de minage, le taux de rendement annuel de $CYCONPool de minage peut atteindre 596,86 %; ✅Mining de la phase 2 de $CYRUS, avec un taux annuel en pourcentage allant jusqu'à 282.41%; ✅ Le minage de $CROS prend en charge $CROS et $BTC, le taux de rendement annuel du pool de minage de $CROS atteint 576.19% ; 💰Commencer le mining maintenant: https://www.gate.io/zh/startup-mining
X-3.27%
  • 5
  • 6
08:30
Dans l’après-midi du 12 janvier 2024, le premier Forum de l’innovation SFT a été officiellement lancé. Au cours de la réunion, les fondateurs de zCloak Network et de Solv Protocol ont annoncé conjointement qu’ils étaient officiellement devenus des partenaires stratégiques. En novembre 2023, DESFT, un projet conçu et incubé conjointement par zCloak et Solv, a été repéré au Singapore FinTech Festival, qui est soutenu conjointement par l’Autorité monétaire de Singapour (MAS) et la Banque centrale du Ghana, qui vise à aider les micro, petites et moyennes entreprises (MPME) des régions en développement à participer au commerce international par le biais de l’identité numérique d’entreprise, des justificatifs d’identité numériques et de la technologie ERC3525, et à obtenir des services financiers équitables, précis et abordables dans les activités transfrontalières de l’économie numérique. Dans le cadre de la coopération approfondie dans le cadre du projet DESFT, les deux parties ont convenu que la technologie d’identité numérique Zero-Knowledge de zCloak et la norme ERC-3525 du protocole Solv présentent une très bonne complémentarité, une forte combinaison dans le développement d’applications pratiques et un large espace d’innovation. Afin de mieux explorer la voie de la tokenisation des actifs dans le monde réel, les deux parties ont officiellement établi un partenariat stratégique commercial afin d’élargir conjointement la coopération technique future et les scénarios d’atterrissage commercial.
03:59
Selon le rapport de TechWeb du 19 septembre, le système d'évaluation national faisant autorité Flag_ (Libra) a annoncé les résultats de l'évaluation des derniers grands modèles de la liste de septembre. Basée sur le dernier ensemble de données d'évaluation subjective CLCC v2.0, la liste Flag_ (Libra) de septembre se concentre sur l'évaluation de 7 modèles de dialogue open source qui sont devenus populaires récemment. À en juger par les résultats globaux, Baichuan2-13 b-chat, Qwen-7 b-chat et Baichuan2-7 b-chat sont parmi les meilleurs, avec des taux de précision supérieurs à 65 %. Dans la liste des modèles de base, les résultats objectifs de l'évaluation de Baichuan 2, Qwen, InternLM et Aquila ont tous dépassé les modèles Llama et Llama2 du même niveau de paramètres. Dans la liste des modèles SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B et AquilaChat-7 B se classent parmi les trois premiers. Dans les deux listes d'évaluation objective, Baichuan 2 a montré d'excellentes performances et le test du modèle de base a surpassé Llama 2 dans les domaines chinois et anglais. Il est rapporté que Flag_ (Libra) est un grand système d'évaluation de modèles et une plate-forme ouverte lancée par l'Institut de recherche sur l'intelligence artificielle Zhiyuan de Pékin. Il vise à établir des références, des méthodes et des outils d'évaluation scientifiques, équitables et ouverts pour aider les chercheurs à évaluer de manière globale les modèles de base et Performance des algorithmes de formation. Flag_ Le grand système d'évaluation de modèles de langage comprend actuellement 6 tâches d'évaluation majeures, près de 30 ensembles de données d'évaluation et plus de 100 000 questions d'évaluation.
07:30

Wisdom AI : la plateforme communautaire open source d'IA neutre et ouverte wisemodel est officiellement lancée

L'équipe Wise AI a annoncé que la plateforme communautaire open source d'IA neutre et ouverte (wisemodel.cn) était officiellement lancée. Selon les rapports, l'objectif de la plate-forme est de rassembler des modèles et des ensembles de données d'IA open source couramment utilisés ainsi que d'autres ressources au pays et à l'étranger pour créer une plate-forme d'innovation open source d'IA neutre et ouverte. À l'heure actuelle, des modèles tels que Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4t large et des ensembles de données tels que shareGPT, ultrachat et moss-sft ont tous été lancés.
Plus
12:23
Selon le rapport de 36Kr du 6 septembre, l’équipe Wise AI a annoncé que la plateforme communautaire open source d’IA neutre et ouverte (wisemodel.cn) avait été officiellement lancée. Selon les rapports, l'objectif de la plate-forme est de rassembler des modèles et des ensembles de données d'IA open source couramment utilisés ainsi que d'autres ressources au pays et à l'étranger pour créer une plate-forme d'innovation open source d'IA neutre et ouverte. À l'heure actuelle, des modèles tels que Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, seamless m4 t large et des ensembles de données tels que shareGPT, ultrachat et moss-sft ont tous été lancés.
07:58
Selon un rapport de Xinzhiyuan du 5 septembre, la dernière recherche de l'équipe de Google propose d'utiliser de grands modèles pour remplacer les humains pour l'annotation des préférences, qui est l'apprentissage par renforcement par rétroaction de l'IA (RLAIF). Il a été constaté que le RLAIF peut produire des améliorations comparables au RLHF sans recourir à des annotateurs humains, avec un taux de réussite de 50 %. Dans le même temps, une étude de Google a prouvé une fois de plus que le RLAIF et le RLHF ont un taux de réussite de plus de 70 % par rapport au réglage fin supervisé (SFT).
03:08
Selon un rapport de Machine Heart du 1er septembre, le laboratoire d'intelligence des données et d'informatique sociale (FudanDISC) de l'université de Fudan a lancé un assistant personnel médical et de santé chinois - DISC-MedLLM. Dans les évaluations de consultations médicales et de santé à un tour de questions et réponses et à plusieurs tours, les performances du modèle montrent des avantages évidents par rapport aux grands modèles de dialogue médical existants. En outre, l'équipe de recherche a également publié un ensemble de données de réglage fin supervisé (SFT) de haute qualité - DISC-Med-SFT contenant 470 000 personnes. Les paramètres du modèle et les rapports techniques sont également open source.
05:33
Selon le cœur de la machine, deux grands modèles de Stability AI et du laboratoire CarperAI : FreeWilly 1 et FreeWilly 2, ont dépassé le Llama-2-70b-hf publié par Meta il y a trois jours le 22, et ont atteint avec succès le sommet du classement Open LLM de HuggingFace. FreeWilly 2 a également battu ChatGPT (GPT-3.5) sur de nombreux benchmarks, devenant ainsi le premier grand modèle open source qui peut vraiment rivaliser avec GPT-3.5, ce que Llama 2 n'a pas fait. FreeWilly 1 est construit sur le modèle de base original LLaMA 65B et un réglage fin (SFT) soigneusement supervisé à l'aide d'un nouvel ensemble de données synthétiques au format Alpaca standard. FreeWilly2 est basé sur le dernier modèle de base LLaMA 2 70B.
05:43
Selon le cœur de la machine, deux grands modèles de Stability AI et du laboratoire CarperAI : FreeWilly 1 et FreeWilly 2 ont dépassé le Llama-2-70 b-hf publié par Meta il y a trois jours, et ont atteint avec succès le sommet du classement Open LLM de HuggingFace. Ce qui est plus frappant, c'est que FreeWilly 2 a également battu ChatGPT (GPT-3.5) sur de nombreux benchmarks, devenant ainsi le premier modèle open source qui peut vraiment rivaliser avec GPT-3.5, ce que Llama 2 n'a pas fait. FreeWilly 1 est construit sur le modèle de base original LLaMA 65 B et un réglage fin (SFT) soigneusement supervisé à l'aide de nouveaux ensembles de données synthétiques au format Alpaca standard. FreeWilly2 est basé sur le dernier modèle de base LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta a publié le modèle de langage multimodal CM3leon. CM3leon est un modèle de langage multimodal à décodeur amélioré, basé sur des jetons, capable de générer et de remplir du texte et des images. CM3leon est le premier modèle multimodal entraîné à l'aide d'une recette adaptée d'un modèle de langage en texte brut, composé d'une étape de pré-entraînement d'augmentation de récupération à grande échelle et d'une deuxième étape de réglage fin supervisé (SFT) multitâche. En tant que modèle général, il peut effectuer une génération de texte à image et d'image à texte, permettant l'introduction de méthodes de décodage contrastif indépendantes qui produisent une sortie de haute qualité.
Charger plus
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)