一、前言
AI目前在资讯分析与情报方面运用比较多的,也看到很多公司有实实在在落地,并取得不错的效果(对于资讯和情报来说,不涉及隐私的问题,所使用的大模型以及网络环境无要求)。自己也有构建一个情报机器人的需求,于是动手实践。
对于构建AI机器人来说,其实对于一个开发者来说,相比于在线AI工坊,自己写代码的速度反而更快捷方便。为什么还使用在线AI 工坊?
以豆包为例:
1、免费的api(豆包、gpt、bing搜索等免费api)
2、免费的发布平台
3、丰富的插件(不用开发,对于小白友好)
二、AI情报机器人构建
1、数据源
数据源来源自己的rss站点:https://rss.lufe1.cn/(一个满足自己需求的情报系统),里面有自己爬的,也有通过rsshub整理好的(强烈推荐rsshub,开源并且维护了很多站点做成RSS可以快速集成)。
2、使用Coze工作流
工作流可以看这个文档:扣子 – 文档中心[1] 以及工作流中会使用到一个常用的插件:头条搜索-browse,用于获取网页内容。
对rss结果整理
这个比较简单,只要通过borwse插件获取rss的描述即可,即可整理出事情大概。
对总结类文章整理
会遇到一些速递、周报类的文章,就需要Coze去访问每篇内容,然后再整理出资讯列表。
比如:https://www.sohu.com/a/795041944_455313
这里需要批处理模式,批量获取url。然后再批量读取url里面,整理资讯列表,再输出列表。(这个看起来比较容易,由于Coze文档没有写好,浪费一些时间在摸索,如果有需要类似的需求的可以参考我下面截图)
汇总输出
需要对上面两个结果进行汇总,再使用一个节点进行对两个结果汇总去重,就构建好了一个工作流了,测试后即可发布。
3、机器人
构建的机器人加载对应的工作流,就将情报机器人做好了。
可以使用api进行调用,需要选择发布api平台(可以通过api调用机器人)
Personal_Access_Token=xxxxxxx
Bot_Id=xxxxxxx
user_id=xxxxxx
curl --location --request POST 'https://api.coze.cn/v3/chat' \
--header 'Authorization: Bearer '$Personal_Access_Token'' \
--header 'Content-Type: application/json' \
--data-raw '{
"bot_id": "'$Bot_Id'",
"user_id": "'$user_id'",
"stream": true,
"auto_save_history":true,
"additional_messages":[
{
"role":"user",
"content":"24小时的资讯",
"content_type":"text"
}
]
}'
curl --location --request GET 'https://api.coze.cn/v3/chat/message/list?chat_id=xxxxxx&conversation_id=xxxxx'--header 'Authorization: Bearer '$Personal_Access_Token''--header 'Content-Type: application/json'
三、总结
最终完成一个在线情报机器人,可以在bot商店、嵌入网页使用。一开始我对在线AI工坊并不感兴趣(因为对于开发者来说自己开发反而更方便快捷),实践下来发现免费的大模型以及插件使用,觉得还不错,但是目前Coze已经推出商业计划,对免费版进行限制(可以根据自己的项目需求是开发还是使用在线平台)。
来源:lufeisec