Llama3-TAIDE模型是由国家应用研究实验室开发和构建的。Llama3-TAIDE模型是由財團法人國家實驗研究院開發並建置的。

8B

979 pulls 更新于7周前

7 周前

bcd577d01184 · 6.6GB

自述文件

描述

此仓库包含 Llama3-TAIDE-LX-8B-Chat-Alpha1 的 GGUF 格式模型文件。

关于 GGUF

GGUF 是 llama.cpp 团队在 2023 年 8 月 21 日推出的一种新格式。它是 GGML 的替代品,GGML 已不再由 llama.cpp 支持。

提供的文件

名称 量化方法 位数 大小 用途
Llama3-TAIDE-LX-8B-Chat-Alpha1-GGUF.Q5_K_M.gguf Q5_K_M 5 5.73 GB 大型,非常低的损失
Llama3-TAIDE-LX-8B-Chat-Alpha1-GGUF.Q6_K.gguf Q6_K 6 6.6 GB 非常大,极低的损失

原始模型卡片


模型简介

  • TAIDE计划 致力于开发符合台湾语言和文化特性的生成式人工智能对话引擎模型,同时构建可信任的人工智能环境。结合产学研力量,推动可信任生成式人工智能的发展,提升台湾在国际竞争中的地位,促进产业发展,避免对外国技术的依赖。
  • Llama3 TAIDE 系列模型以 Meta 公司发布的 LLaMA3-8b 为基础,引入台湾不同领域可用的文本和训练素材,提高模型在繁体中文响应的能力和特定任务的性能。公开释放的模型如下
    • Llama3-TAIDE-LX-8B-Chat-Alpha1:以 LLaMA3-8b 为基础,使用繁体中文数据预训练 (continuous pretraining),并通过指令微调 (instruction tuning) 加强办公室常用任务和多轮问答对话能力,适用于聊天对话或任务协作的使用场景。Llama3-TAIDE-LX-8B-Chat-Alpha1 还提供了4 位量化模型,量化模型主要是提供用户的便利性,可能会影响性能和更多不可预期的问题,请用户理解并注意。

模型参数

  • 参数量: 8B
  • 最大内容长度 (内容长度): 8K
  • 繁体中文训练数据 token 数: 43B
  • 训练时间: 2336 H100 GPU 小时

特色

  • 严格把关模型的训练数据,提升模型生成数据的可信度和适用性
  • 针对自动摘要、写信、写文章、中译英、英译中等办公常用任务进行强化
  • 针对台湾在地文化、用语、国情等知识进行强化
  • 具有多轮问答对话能力

应用示例

任务 用户输入 模型输出
写文章 请以下内容为基础,写一篇文章:写一篇作文,题目为《一张旧照片》,内容要求为:选择一张令你印象深刻的照片,说明令你印象深刻的原因,并描述照片中的影像及背后的故事。记录成长的过程、与他人的情景、环境变迁和美丽的景色。 一张旧照片,承载着时光的痕迹和回忆的温度。我还记得那照片是怎么出现的,那是一张泛黄的黑白相片,镶在墙上,诉说着一段属于我家族的故事。

那张照片中,我的祖父母站在田野间,后方是绵延的山峦,前方则是一片金黄的稻田。这幅景象令我印象深刻,因为这是我的童年回忆,也是我成长过程中最美好的风景线。

我出生在台湾乡下,从小就生活在这个纯净的环境中。每当我和家人在田里工作时,就会看到这样的美景。金黄的麦穗随着微风摇曳,山峦则静静地矗立在远方,给人一种宁静与祥和的感觉。

那张照片拍摄于民国50年代,当时台湾经济尚未起飞,农业为主要产业。我的祖父母都是农民,他们辛勤耕作,为我们家提供温饱。每当我看到那照片,就会想起他们为我们所做的牺牲和努力。

除了美丽的风景外,照片中还有一段感人的故事。在我还很小的时候,家里发生了一场大火,将我们的房子和所有财产都烧毁了。幸好全家人都平安无事,但生活却变得十分艰难。我们被迫搬到另一个村子,在那里重新开始生活。

那张照片也记录了那段艰辛的岁月。虽然我们失去了很多东西,但家人之间的感情却更加深厚。我们互相扶持,共同面对生活中的种种挑战。

如今,我已长大成人,在城市里工作。但每当我看到那张旧照片,我都会想起那段简单而美好的时光。那些美丽的风景、亲人的笑容,以及那段充满挑战却又充满希望的日子,都将永远镌刻在我的记忆深处。

这张旧照片,不仅是一张照片,更是一部珍贵的家族史,一部关于我们如何克服困难、珍惜现实的故事。我将妥善保存这张照片,让后代也能了解我们的根源,并铭记那些值得珍藏的美好回忆。
撰写信件 请以品牌经理的身份,给广告公司的创意总监写一封信,提出对新产品广告宣传活动的一些创意建议。 [您的姓名]
[您的职位]
[您的公司名称]
[邮件地址]
[电话号码]
[发文日期]

[创意总监姓名]
[广告公司名称]
[广告公司地址]

主题:关于新产品宣传活动创意构思,请查收。

尊敬的[创意总监姓名],

我希望这封信能在您忙碌中为您带来片刻休息。我写这封信,是为了分享我对即将推出新产品的广告宣传活动的一些创意构思。我相信这些想法能帮助我们新产品在市场上脱颖而出,吸引消费者的目光。

首先,我建议我们可以利用社交媒体平台,例如Facebook、Instagram、YouTube等,制作一系列引人入胜的短片和帖子。这些内容可以展示新产品的特色和优点,同时也能传达我们品牌重视环保、健康的核心价值观。我们可以与网红或意见领袖合作,让他们试用并分享他们的使用体验,这将有助于提高我们产品的可信度和知名度。

其次,我们可以举办新产品试吃/试用活动,邀请民众亲身体验我们的新产品。我们可以在各大百货公司、超市以及我们的门店举办这些活动,让参与者免费试吃/试用新产品,并填写问卷反馈意见。这种互动方式,不仅能收集到宝贵的市场反馈,还能让民众对我们品牌产生正面印象。

第三,我们可以与当地餐饮业者合作,将我们的新产品纳入他们的菜单中。这将使我们产品接触到更广泛的客户群,同时也能证明我们在烹饪和美食产业中具有价值。

第四,我们可以举办一场新产品发布会,邀请媒体、业界人士以及重要客户参加。在这场活动中,我们可以展示新产品的各项特色和优势,并由专业厨师示范如何将新产品融入各种料理中。这将是我们向公众展示品牌创新精神和专业能力的绝佳机会。

最后,我建议我们可以制作一系列精美的包装和礼盒,以吸引消费者在节庆和送礼时选择我们的产品。精致的包装将能提升我们产品的价值感,同时也能传达我们品牌对细节和品质的坚持。

我相信,这些建议将有助于我们新产品在市场上取得成功。如果您对这些想法有任何意见或建议,请不吝与我分享。我期待着与您合作,共同为[您的公司名称]的成长和成功而努力。

感谢您抽空阅读我的信,并期待着与您进一步讨论这些想法。

敬礼

[您的姓名]
[您的职位]
[您的公司名称]
摘要 “台版晶片法”,又称“产业创新条例第10条之2及第72条条文修正案”,针对在半导体、电动汽车、5G等技术领域创新并处于国际供应链关键地位的公司,提供最高25%的营业税抵扣优惠。企业适用条件包括当年研发费用、研发密度达到一定规模,且有效税率达到一定比率。
为应对经济合作与发展组织(OECD)国家最低税负制度调整,其中有效税率门槛,预计112年设定为12%,113年将提高至15%,但需考虑国际上最低税负制度实施情况。
经济部官员表示,已与财政部门协商进入最后阶段,除了企业研发密度订在6%之外,目前已确认,企业购置先进制程的设备投资金额达100亿元以上可抵扣。
财政部门官员表示,在研究过程中,针对我国产业及其在国际上类似的公司进行了深入研究,在设备方面,毕竟适用产创10之2的业者是代表我国队在国际赛场上拼搏,投入金额不达100亿元,可能也无法取胜。
至于备受关注的研发费用门槛,经济部官员表示,经过与财政部门来回密切讨论,研发费用门槛有望落在60亿至70亿元之间。
财政部门官员指出,研发关乎我国未来经济增长动力,门槛不能“高不可攀”,最初虽然设定在100亿元,之所以会调低,正是希望让企业觉得有能力达标、进而适用税收优惠,才有动力继续投入研发,维护我国在国际供应链中的关键地位。
经济部官员表示,由于厂商研发费用平均为30、40亿元,其中,IC设计业界介于30亿至60亿元之间,如果门槛定在100亿元,符合条件的业者较少、刺激因素不足;此外,如果符合申请门槛的业者增加,将可提高企业在我台投资金额,财政部税收也因此获得增加。
IC设计业界近日频繁针对产创10之2发声,希望降低适用门槛,加上各国力推供应链自主化、增加对半导体产业的支持,经济部官员表示,经济部和财政部就产创10之2达成共识,争取让更多业者受益,以期增强企业投资力度并巩固我国技术地位。
财政部门官员表示,税收奖励的制定必须“有有为有守”,并以为达到奖励目的为最高原则,现阶段在打“国内赛”的企业仍可适用产业创新第10条、10之1的税收优惠,共同壮大台湾经济发展。
经济部和财政部正就研发费用门槛做最后确认,待今明两天预告子法之后,约有三周时间,可 与业界进一步讨论并作出调整,以期产业创新10之2能在6月实施。
文章重点摘要如下

- “台版晶片法”或《产业创新条例第10条之2及第72条条文修正案》,旨在鼓励关键技术创新企业,特别是那些在半导体、电动汽车、5G技术等领域并在国际供应链中扮演关键角色者。

- 企业若符合特定条件,包括当年研发费用及研发密度达标,可享受最高25%的营业税抵扣优惠。研发密度目标设为6%,而企业为取得抵扣,必须证明其有效税率达到特定比率,最初设定为112年的12%,113年提高至15%,但可能根据国际税制的实施情况进行调整。

- 政府在制定政策时,考虑到OECD最低税负制度的调整,因此会根据情况调整有效税率门槛。

- 政府部门已就法案内容与相关企业利益相关者进行协商,确定了一些细节,例如企业投资先进制程设备的门槛设为100亿元新台币以供抵扣。

- 研发费用门槛经过讨论,可能从最初提议的100亿元下调至60亿至70亿元之间,以激励更多企业符合资格并投入研发,维持我国在国际供应链中的关键地位。

- 经济部官员表示,降低门槛的目的是让更多企业觉得能够达标,从而获得应用税收优惠的动力,并可能借此提高在台投资金额,进而增加政府税收。

- 由于IC设计企业的研发费用普遍较低,如果门槛定得过高,符合条件的企业将很少,因此需要进行调整。

- 在各国推动供应链自主化并加大对半导体产业支持的同时,经济部正努力确保更多企业能从《产业创新条例》第10条之2中受益,以增强投资并巩固我国技术地位。

- 政府强调税收优惠的制定应符合奖励目标,在此同时,也将继续提供其他税收优惠给国内经营的企业,以促进台湾经济增长。

- 最终的研发费用门槛将由经济部和财政部共同确定,在预告相关子法后,将有约三周时间供各界讨论并提出调整建议,目标是让这项新政策在6月实施。
翻译 以下提供英文内容,请帮我翻译成中文。Dongshan coffee is famous for its unique position, and the constant refinement of production methods. The flavor is admired by many caffeine aficionados. 东山咖啡以独特的位置,加上不断精湛的制作手法而闻名,风味更是让众多咖啡爱好者趋之若鹜。

使用说明

  • 示例程序

    • 示例程序与文件后续会释出到github
  • prompt 版本

    • 一般问答用法

      
      chat = [
          {"role": "user", "content": "{question}"},
      ]
      prompt = tokenizer.apply_chat_template(chat)
      

      • 将 {question} 替换成使用者的输入
    • 加入 system prompt 的用法

      
      chat = [
          {"role": "system", "content": "{sys}"},
          {"role": "user", "content": "{question}"},
      ]
      prompt = tokenizer.apply_chat_template(chat)
      

      • 将 {sys} 替换成指令,例如:你是一个来自台湾的AI助手,你的名字是 TAIDE,乐于以台湾人的立场帮助使用者,会用繁体中文回答问题。
      • 将 {question} 替换成使用者的问题
    • 多轮问答用法

      
      chat = [
          {"role": "system", "content": "{sys}"},
          {"role": "user", "content": "{question1}"},
          {"role": "assistant", "content": "{model_anwer_1}"},
          {"role": "user", "content": "{question2}"},
      ]
      prompt = tokenizer.apply_chat_template(chat)
      

      • 将 {sys} 替换成指令,例如:你是一个来自台湾的AI助手,你的名字是 TAIDE,乐于以台湾人的立场帮助使用者,会用繁体中文回答问题。
      • 将 {question1} 替换成使用者的问题1
      • 将 {model_answer_1} 替换成模型的回答1
      • 将 {question2} 替换成使用者的问题2
    • 更多详情请参考Llama3 文件

      训练方法

  • 软硬件规格

    • 国网中心 H100
    • 训练框架: PyTorch
  • 数据前处理

    • 字符标准化
    • 去除重复
    • 去除噪声
      • 网页资料的html tag、javascript
      • 非标准字符或乱码
      • 字数过短的文章
      • 去除文章中的特定格式,如因排版增加的换行
    • 去除个人资料,如email、电话
    • 去除不当文字,如赌博、色情等
  • 持续预训练 (continuous pretraining, CP)

    • 补充大量来源可信的繁体中文知识
    • 超参数 (hyper parameters)
      • optimizer: AdamW
      • learning rate: 1e-4
      • batch size: 1M tokens
      • epoch: 1
  • 微调 (fine tune, FT)

    • 让模型可针对繁体中文提问回答问题
    • 超参数 (hyper parameters)
      • optimizer: AdamW
      • learning rate: 5e-5
      • batch size: 256K tokens
      • epoch: 3

训练数据

  • 持续预训练数据(数据量约为140G)
    | 数据集 | 数据描述 |
    | —— | ——– |
    | 案件数据 | 《司法院裁判书》自2013年1月至2023年12月各级法院民事、刑事、行政诉讼资料。 |
    | 中央社 | 《中央社中文新闻》数据集含中央社自1993年6月至2023年06月,共30年之每日新闻文章。内容涵盖国内外政治、社会、财经、文教、生活等领域。 |
    | ETtoday 新闻云 | 《ETtoday新闻云》数据,包含自2011年10月至2023年12月的资料。 |
    | 立法院公报 | 《立法院公报》包含自第8届第1会期至第10届第7会期之公报资料。 |
    | 出版社网站书籍介绍 | 包含三采Gotop出版社网站上的书籍简介。 |
    | GRB 研究计划摘要 | GRB为收錄由政府經費補助之研究计划及其成果报告的資訊系統,此資料集主要收录1993年至2023年之研究计划摘要以及研究报告摘要,含中文及其英文对应。 |
    | 学术会议论文摘要 | 收录《学会议文摘数据库》中自1988至2009年由台湾所举办之学会议文。 |
    | 光華雜誌 | 《台灣光華雜誌》含自1993年7月至2023年6月的文章,共30年。內容著重於我國文化、觀光與民情等。 |
    | 樂詞網 | 《樂詞網》涵蓋文理領域約187萬則學術名詞及其譯名對照。 |
    | 各部會資料 | 包含行政院「國情簡介」、文化部「國家文化記憶庫」、國發會「檔案支援教學網」、交通部「交通安全入口網」等部會網站資料之部分資料。 |
    | 今周刊 | 《今周刊》為一以財經為主的週刊雜誌,此資料集涵蓋2008年1月至2023年7月的文章。 |
    | 教育部國語辭典、成語辭典 | 包含以下三項資料
    教育部《成語典》,含5,338條成語,內容包含每條成語的釋義、典故原文及其白話說明、用法說明、例句等。
    教育部《重編國語辭典修訂本》,收錄中文單字及各類辭彙,包含讀音、部首、釋義等資訊,共約165,539筆資料。
    教育部《國語辭典簡編本》,為《重編國語辭典修訂本》的簡編版本,共45,247筆資料。 |
    | 科技大觀園資料 | 含《科技大觀園網站》上的科學新知以及科普文章。 |
    | iKnow 科技產業資訊室 | 《科技產業資訊室(iKnow)》提供台灣及全球的科技市場趨勢、策略分析、專利知識,及技術交易資訊,專注於科技產業的創新與發展,包含自 2008 年至 2023 年。 |
    | 科學發展月刊 | 《科學發展月刊》為國科會為推廣科學教育而出版的科普刊物,含自2004年10月至2020年12月之科普文章;2021年起,以《科技魅癮》季刊重新出發,提供國際關注科技議題的新知文章。 |
    | 法規資料庫 | 《法規資料庫》含截自112年10月各政府部門最新發布之中央法規、行政規則、法規命令草案及地方自治法規等。 |
    | 各地政府旅遊網 | 涵蓋台灣部分縣市地方政府觀光旅遊網站上之部分資料。 |
    | 國教院課程綱要(十二年國教) | 含十二年國教課程綱要之總綱以及各級學校不同科目之課程綱要。 |
    | 中央社譯名檔資料庫 | 《中央社譯名檔資料庫》蒐集中央社新聞業務上翻譯過的中外姓氏、人名、組織、地名等譯名對照。 |
    | 童話書 | 共20本童話書,含湯姆歷險記、小飛俠、愛麗絲夢遊仙境、長腿叔叔等。 |
    | RedPajama-Data-V2 | 從國外開放多國語言語料庫 RedPajama-Data-v2 取出英文資料 |
    | MathPile-commercial | 國外開放數學語料庫 MathPile-commercial |
    | 中文維基百科 | 《中文維基百科》截至2023年1月所有條目的內容。 |
    | github-code-clean | 為 github 開源程式碼資料集,去除unlicense的程式碼和文件。 |
  • 微調資料
    • TAIDE團隊訓練llama2系列模型來產生微調資料資料,產生的任務包含世界知識、創意寫作、普通常識、翻譯、摘要、程式、台灣價值等單輪或多輪對話問答共128K筆。微調資料後續會對外釋出。

模型評測

  • taide-bench
    • 評測資料
      • 寫文章、寫信、摘要、英翻中、中翻英,共500題
      • 資料連結: taide-bench
    • 評測方法
    • 評測分數
      | 模型 | 中翻英 | 英翻中 | 摘要 | 寫文章 | 寫信 | 平均 |
      | — | —– | —– | —- | —- | —- | — |
      | Llama3-TAIDE-LX-8B-Chat-Alpha1 | 7.770 | 8.280 | 8.495 | 9.605 | 8.950 | 8.620 |
      | GPT3.5 | 8.880 | 8.810 | 7.450 | 9.490 | 8.750 | 8.676 |
      | TAIDE-LX-7B-Chat | 7.165 | 7.685 | 7.720 | 9.635 | 9.110 | 8.263 |
      | LLAMA2 7B | 6.075 | 4.475 | 5.905 | 2.625 | 3.040 | 4.424 |
      | LLAMA2 13B | 6.480 | 6.135 | 6.110 | 2.565 | 3.000 | 4.858 |
      | LLAMA2 70B | 6.975 | 6.375 | 6.795 | 2.625 | 2.990 | 5.152 |

授權條款

免責聲明

  • LLM 模型由於設計架構的限制,以及資料難免有偏誤,語言模型的任何回應不代表 TAIDE 立場,使用前需要額外加入安全防護機制,且回應內容也可能包含不正確的資訊,使用者請勿盡信。

開發團隊

相關連結

Citation