热门
最新
红包
立Flag
投票
同城
我的
发布
Phi-2:小语言模型的惊人力量。微软发布了 Phi-2,这是一种拥有 27 亿个参数的语言模型,其性能优于其大小 25 倍的模型。 Phi-2 使用高质量数据和合成数据集实现了卓越的推理和语言理解能力。它在具有挑战性的基准测试中优于更大的模型,尤其是在编码和数学等任务中。
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2", torch_dtype="auto", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2", trust_remote_code=True)
inputs = tokenizer('''def print_prime(n):
"""
Print all primes between 1 and n
"""''', return_tensors="pt", return_attention_mask=False)
outputs = model.generate(**inputs, max_length=200)
text = tokenizer.batch_decode(outputs)[0]
print(text)
https://huggingface.co/microsoft/phi-2
人工智能时代
CSDN App 扫码分享
评论
点赞
打赏
- 复制链接
- 举报
下一条:
Welcome Mixtral — A New Era in AI with Hugging Face’s State-of-the-Art Model欢迎 Mixtral — 人工智能新时代,Hugging Face 最先进的模型Mistral 推出了 Mixtral 8x7b,这是人工智能语言模型发展的一个重要里程碑。这个大型语言模型正在重新定义开放访问模型的基准,在许多方面超越了 GPT-3.5。与 Hugging Face 生态系统完全集成,提供全面的功能和集成套件。Mixtral 不仅仅是另一个大型语言模型。它因其独特的架构而脱颖而出——专家混合体 (MoE)。该模型将 8 个“专家”模型合二为一,利用稀疏 MoE 层取代一些前馈层。这种设计可实现高效处理和快速解码,使 Mixtral 成为高效的 AI 模型。https://huggingface.co/mistralai