欢迎您 本站地址:
首页
网页插件
Local LLama LLM AI Chat Query Tool-浏览器插件-空若网
适用于以下浏览器
通过我们的尖端Chrome扩展名来提升您的浏览体验,该扩展旨在与您自己的服务器上托管的本地型号无缝互动。
此扩展程序使您可以从浏览器内部轻松且精确地解锁本地模型的功能。
我们的扩展名与Llama CPP和.GGUF型号完全兼容,为您提供了满足所有建模需求的多功能解决方案。
首先,只需访问我们的最新版本,其中包括示例Llama CPP烧瓶服务器,以便您的方便。
您可以在我们的GitHub存储库上找到此服务器:
GitHub存储库 - 本地美洲驼铬扩展:
https://github.com/mrdiamonddirt/local-llama-chrome-extension
要设置服务器,请使用以下命令安装服务器的PIP包:
````````
PIP安装本地闭合
````````
然后,只运行:
````````
本地allama
````````
只需几个直接的步骤,您就可以利用此扩展的功能。
运行提供的Python脚本,安装扩展名,并立即获得毫不费力地查询本地型号的能力。
当今,体验基于浏览器的模型交互的未来。
温馨提示 扫描下方二维码,访问手机版。