阿布扎比技术创新上周发布了falcon 180b语言模型,他们声称模型质量超过了llama 2并且与palm 2相当,仅次于gpt-4。模型是开源的,可以用于商业用途,falcon 180b在3.5 万亿token上进行训练,规模是 llama 2 的 2.5 倍,所需计算量是 llama 2的4 倍。falcon 180b在 mmlu上的表现超过了 llama 2 70b 和 openai 的 gpt-3.5。训练主要来自refinedweb (大约占 85%),这个中文占比很少。数据集的代码只占5%左右,所以如果他说的超过gpt-3.5应该不包括代码能力。
模型凯发k8国际真人官网:
试用模型:
huggingface上的介绍文章:
模型下载:
未经允许不得转载:凯发k8国际真人 » 阿布扎比技术创新研究院发布了falcon 180b语言模型