上周在本地环境折腾AutoGen时踩了不少坑,今天把完整的Windows部署流程整理成文档。不同于简单的pip install,这里会涵盖AutoGen核心框架、可视化工具AutoGenStudio以及LiteLLM代理服务的完整配置方案,特别针对Windows特有的环境问题给出解决方案。
注意:避免使用中文用户名路径,可能引发包依赖解析错误
推荐使用Miniconda创建独立环境:
bash复制conda create -n autogen python=3.10
conda activate autogen
安装基础依赖:
bash复制pip install --upgrade pip setuptools wheel
bash复制pip install pyautogen
适合需要自定义agent的场景:
bash复制git clone https://github.com/microsoft/autogen.git
cd autogen
pip install -e .
创建test_autogen.py:
python复制import autogen
print(autogen.__version__)
config_list = autogen.config_list_from_json("OAI_CONFIG_LIST")
print(config_list)
需要Node.js环境(建议16.x):
bash复制choco install nodejs # 或用官方安装包
node -v
npm -v
bash复制git clone https://github.com/microsoft/autogenstudio.git
cd autogenstudio/frontend
npm install
npm run build
bash复制cd ../backend
pip install -r requirements.txt
python app.py
访问 http://localhost:8080 即可使用
bash复制pip install litellm
在.env文件中添加:
ini复制OPENAI_API_KEY=sk-xxxx
ANTHROPIC_API_KEY=sk-xxxx
bash复制litellm --model gpt-3.5-turbo
测试代理:
bash复制curl http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
}'
症状:ImportError: DLL load failed
解决方案:
修改AutoGenStudio默认端口:
python复制# backend/app.py
app.run(host='0.0.0.0', port=5000)
设置环境变量:
bash复制set REQUESTS_CA_BUNDLE=C:\path\to\cert.pem
bash复制pip install redis
docker run -p 6379:6379 redis
bash复制litellm --batch --model gpt-3.5-turbo
powershell复制Set-ItemProperty -Path 'HKLM:\SYSTEM\CurrentControlSet\Control\Session Manager\Memory Management' -Name 'LargeSystemCache' -Value 1