热门
最新
红包
立Flag
投票
同城
我的
发布
CSDN App 扫码分享
评论
3
打赏
- 复制链接
- 举报
下一条:
Phi-2:小语言模型的惊人力量。微软发布了 Phi-2,这是一种拥有 27 亿个参数的语言模型,其性能优于其大小 25 倍的模型。 Phi-2 使用高质量数据和合成数据集实现了卓越的推理和语言理解能力。它在具有挑战性的基准测试中优于更大的模型,尤其是在编码和数学等任务中。import torchfrom transformers import AutoModelForCausalLM, AutoTokenizertorch.set_default_device("cuda")model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2", torch_dtype="auto", trust_remote_code=True)tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2", trust_remote_code=True)inputs = tokenizer('''def print_prime(n): """ Print all primes between 1 and n """''', return_tensors="pt", return_attention_mask=False)outputs = model.generate(**inputs, max_length=200)text = tokenizer.batch_decode(outputs)[0]print(text)https://huggingface.co/microsoft/phi-2