跳转到内容

基于转换器的生成式预训练模型:修订历史

2024年6月15日 (星期六)

2024年5月23日 (星期四)

2024年4月5日 (星期五)

2023年12月23日 (星期六)

2023年12月16日 (星期六)

2023年10月13日 (星期五)

2023年9月9日 (星期六)

2023年8月5日 (星期六)

2023年7月27日 (星期四)

2023年7月22日 (星期六)

2023年7月20日 (星期四)

2023年6月11日 (星期日)

2023年6月10日 (星期六)

2023年4月10日 (星期一)

2023年3月25日 (星期六)

2023年3月20日 (星期一)

2023年3月17日 (星期五)

2023年2月28日 (星期二)

2023年2月27日 (星期一)

  • 当前先前 09:442023年2月27日 (一) 09:44姚妫颍 留言 贡献 7,012字节 +7,012 建立内容为“right|thumb|The original GPT model '''基于转换器的生成式预训练模型'''<ref name=":0">{{Cite web|author=冯志伟|last=|title=冯志伟教授聊ChatGPT|url=https://mp.weixin.qq.com/s/RCLuUThxw3_4Y_OL9L8Xdg|access-date=2023-02-27|website=微信公众平台|publisher=中国科技术语|via=}}</ref>(Generative pre-trained transformers, GPT)是一种延伸自Transformer模型|转换器架构(Tr…”的新页面 标签添加文件 2017版源代码编辑