AILLM本页总览LLM 本地部署 使用 ollama 模型页 https://ollama.com/library Ollama 使用 # 在命令行交互式运行某个模型ollama run <modal># 启用服务,用于提供 API 访问export OLLAMA_HOST=0.0.0.0:11434ollama run servesh MaxKB:LLM 问答 Web 应用 AI Agent LLM 充当 Agent 的大脑,可以对任务进行拆分,并通过工具(调用 API)获取模型权重中缺失的额外信息。 现有项目:AutoGPT Prompt 工程 Prompt Engineering Guide MCP modelcontextprotocol.io