示例工作流
“ AISuite加载器”其实就是“Api LLM加载器”的进阶版,它让我们可以在同一个工作流内切换不同厂商的大模型(不同厂商的模型调用所需的参数不同,比如亚马逊平台的模型调用需要三组参数,分别是“aws_access_key_id”、“aws_secret_access_key”和“aws_region_name“,而huggingface的API调用只需要”hf_api_token“一个参数)
| 输出参数 | |
| model | 配置完成的模型对象,可作为输入连接到其他LLM节点,用于生成文本或执行任务。 |
| 控件参数 | |
| provider | 选择大模型提供方,例如openai、aws、google或huggingface等。不同提供方需要填写不同的认证参数。 |
| model_name | 指定所使用的模型名称,如gpt-4o-mini、gpt-3.5-turbo等。不同厂商有各自支持的模型列表。 |
| base_url | 用于覆盖默认的API地址。例如私有代理或自建API网关时需要填写。 |
| api_key | 调用OpenAI或其他服务商API的密钥。 |
| aws_access_key_id | 当provider选择aws时必填,用于连接 Amazon Bedrock 等模型服务。 |
| aws_secret_access_key | 当provider选择aws时必填,用于连接 Amazon Bedrock 等模型服务。 |
| aws_region_name | 当provider选择aws时必填,用于连接 Amazon Bedrock 等模型服务。 |
| google_project_id | 当 provider 选择 google 时必填,配置 Google Cloud 项目的访问凭证。 |
| google_region | 当 provider 选择 google 时必填,配置 Google Cloud 项目的访问凭证。 |
| google_application_credentials | 当provider选择 google 时必填,配置 Google Cloud项目的访问凭证。 |
| hf_api_token | 当provider选择huggingface时必填,用于访问Hugging Face Hub 的模型和API。 |
“ AISuite加载器”其实就是“Api LLM加载器”的进阶版,它让我们可以在同一个工作流内切换不同厂商的大模型(不同厂商的模型调用所需的参数不同,比如亚马逊平台的模型调用需要三组参数,分别是“aws_access_key_id”、“aws_secret_access_key”和“aws_region_name“,而huggingface的API调用只需要”hf_api_token“一个参数)

可加入知识星球获取所有示例工作流

微信扫码入群,加入AIGC大家庭,与大家一起交流学习