热门

最新

红包

立Flag

投票

同城

我的

发布
fckbb
我是一盘牛肉
3 年前
truefckbb

今日总结 12.24

啥也没干,明天开始搞之前的项目,下周一定写完,然后赶周日要搞出自己的简历

CSDN App 扫码分享
分享
评论
3
打赏
  • 复制链接
  • 举报
下一条:
Phi-2:小语言模型的惊人力量。微软发布了 Phi-2,这是一种拥有 27 亿个参数的语言模型,其性能优于其大小 25 倍的模型。 Phi-2 使用高质量数据和合成数据集实现了卓越的推理和语言理解能力。它在具有挑战性的基准测试中优于更大的模型,尤其是在编码和数学等任务中。import torchfrom transformers import AutoModelForCausalLM, AutoTokenizertorch.set_default_device("cuda")model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2", torch_dtype="auto", trust_remote_code=True)tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2", trust_remote_code=True)inputs = tokenizer('''def print_prime(n): """ Print all primes between 1 and n """''', return_tensors="pt", return_attention_mask=False)outputs = model.generate(**inputs, max_length=200)text = tokenizer.batch_decode(outputs)[0]print(text)https://huggingface.co/microsoft/phi-2
立即登录