ollama+exa打造一个可联网搜索的本地ai问答助手
现在开源ai大模型不断紧追闭源模型,最近发布的llama3.1开源ai大模型已经接近claude3.5与gpt4o了,为了企业和个人的数据安全,我们都会采用开源的ai大模型进行本地化部署,这样核心的数据就不会泄露,保证了数据安全,但是大模型由于训练数据集的原因,对于一些新的知识不了解会胡说八道,这个时候我们要提醒大模型采用互联网搜索的方式获取知识来进行回答。
今天我们使用ollama+llama3.1+exa让ai本地大模型联网搜索回答问题。
1、下载好ollama:https://ollama.com/ 下载安装后,运行ollama pull llama3.1进行模型下载。
2、打开exa。登陆后进入这个页面,可视化配置api搜索接口请求,新用户会赠送一定额度的api次数。
https://dashboard.exa.ai/playground/search
3、我们写网页代码,我们用vue来写,请求ollama api的时候,先让本地ai大模型根据自己的已经掌握的知识回答你提出的问题,如果不能回答返回指定的文本,我们去调用这个exa的api获取搜索结果。
这个搜索接口我们以php为例来调用
<?php // 定义请求的 URL 和头部信息 $url = 'https://api.exa.ai/search'; $headers = [ 'accept: application/json', 'content-type...
点击查看剩余70%
网友评论0