OpenCode安装使用及MCP、Skill的使用
发表于|nlp
|总字数:46|阅读时长:1分钟|浏览量:
OpenCode安装使用及MCP、Skill的使用
以“完成一个网页版的2048”为例,讲解下如何使用OpenCode。
技术栈:
- 纯前端项目,使用Vue和JavaScript完成项目
文章作者: 小鱼吃猫
版权声明: 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 小鱼吃猫!
相关推荐

2023-08-01
Transformers 框架学习——持续更新
Transformers 框架学习——持续更新一、概述 官方文档 Transformers快速入门 二、组件 Transformers框架之分词器(Tokenizer)学习 Transformers框架之Model学习 Transformers框架之Datasets 组件 Transformers学习之Evaluate组件 Transformers学习之Trainer组件 三、实战文本 Transformers框架实战——商品评价的情感分析实战 命名实体识别 基于BERT的命名实体识别 基于BERT+LSTM+CRF的命名实体识别 预训练模型分类及代码实战 文本摘要 文本摘要之前缀语言模型-GLM 文本摘要之序列到序列模型-t5 检索式问答-综述 文本相似度匹配 向量数据库的安装与使用 基于向量匹配的检索式问答实战 图像 图像分类之——阿猫阿狗的识别 四、其他 Module ‘XXX‘ doesn‘t exist on the Hugging Face Hub 五、附件 代码地址: https://github.com/Lyn4ever29/transfor...
2023-09-11
基于向量匹配的检索式问答实战
基于向量匹配的检索式问答实战可以先看一看检索式问答的综述,《检索式问答综述》,这篇是实战,直接上代码。 准备工作 数据集:wangrui6/Zhihu-KOL,包含10w条知乎通用问答数据,以下是两个示例: INSTRUCTION (string) RESPONSE (string) 从北大光华读完MBA的人都去了哪里工作? 这里我们根据北大光华的数据给大家分析一下。 Python3中如何得到Unicode码对应的中文? “看的头晕啊!编码真是把人绕晕了啊!” 模型:哈工大的一个中文BERThfl/chinese-macbert-base 分析可以根据要问的问题和知识库里的句子计算相似度进行答案的搜索,但这要求需要有成对的相似句子对作为训练数据集。这需要每个文法都需要有至少两个以上的句子,这很不现实。所以在实际中,可以直接计算问题和答案之间的相似度,以此来完成答案的索引。 代码实现模型训练 利用问答对训练一个文本相似度计算模型用做编码器 这部分和之前的文章是一样的,可以参考文本相似度匹配中问题2的代码 存储数据 利用上一步训练来的编...
2023-08-03
Transformers框架之Datasets 组件
Transformers框架之Datasets 组件Transformers学习之Datasets 组件一、说明 用途:Datesets 顾名思义就是用来加载和保存数据集的组件 二、加载Huggingface数据集 选择数据集如下图,你可以在对应位置选择你想要的数据集,选择任务和语言后,右边会出现对应的数据集点进去对应的数据集,可以看到预览整个数据集,然后点击复制按钮就可以加载数据集了。 加载数据集 123from datasets import *datasets = load_dataset("shibing624/snli-zh")print(datasets) 输出结果如下,可以看到整个数据集的配置:只有一个训练集集,一共有419402条数据,每条数据包含三个字段。 123456DatasetDict({ train: Dataset({ features: ['premise', 'hypothesis', 'label'], num...
2023-09-11
NLP之检索式问答综述
NLP之检索式问答综述这里只是一些知识的综述,实战内容查阅案例基于向量匹配的检索式问答实战 一、概述检索式问答(Retrieval-based Question Answering)是一种问答系统,它通过从预定义的文本库中检索最相关的答案来回答用户的问题。简单来说,就是基于文本相似度来匹配答案,常见的相似度匹配算法有以下几种: TF-IDF (Term Frequency-Inverse Document Frequency):TF-IDF是一种常用的文本检索和信息检索技术,它通过计算单词在文档中的重要性来匹配问题和答案。相关性高的答案往往包含与问题中关键词匹配的高TF-IDF单词。 BM25:BM25是一种改进的TF-IDF算法,它考虑了文档中的单词频率和长度等因素,以提高文档的相关性评分。 Word Embedding Models:这些模型使用预训练的词向量(如Word2Vec、GloVe、FastText)来捕捉单词的语义信息,并通过计算问题和答案之间的相似度来选择最佳答案。 Siamese Networks:Siamese网络是一种神经网络结构,它通过将问题和答...
2023-08-30
文本摘要之前缀语言模型-GLM
文本摘要之前缀语言模型-GLM 文本摘要相关内容查阅 预训练模型实战之文本摘要 1 导入相关包12345import osos.environ["CUDA_VISIBLE_DEVICES"] = "1" import torchfrom datasets import Datasetfrom transformers import AutoTokenizer, AutoModelForSeq2SeqLM, DataCollatorForSeq2Seq, Seq2SeqTrainer, Seq2SeqTrainingArguments 2 加载数据集123456789import json# train.json有140w数据,dev.json只有1w数据,with open('./LCSTS_new/train.json','r') as f: lines = f.readlines() train_data = [json.loads(line) for line in lines[:...
2023-08-30
文本摘要之序列到序列模型-t5
文本摘要之序列到序列模型-t5 文本摘要相关内容查阅预训练模型之文本摘要 1 导入相关包12345import osos.environ["CUDA_VISIBLE_DEVICES"] = "1" import torchfrom datasets import Datasetfrom transformers import AutoTokenizer, AutoModelForSeq2SeqLM, DataCollatorForSeq2Seq, Seq2SeqTrainer, Seq2SeqTrainingArguments 2 加载数据集1234567import json# train.json有140w数据,dev.json只有1w数据,with open('./LCSTS_new/train.json','r') as f: lines = f.readlines() train_data = [json.loads(line) for line in lines[:10000...
公告

