定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《阿里云:2025年零门槛AIGC应用实战:Serverless+AI 轻松玩转高频AIGC场景(288页).pdf》由会员分享,可在线阅读,更多相关《阿里云:2025年零门槛AIGC应用实战:Serverless+AI 轻松玩转高频AIGC场景(288页).pdf(288页珍藏版)》请在薪酬报告网上搜索。
1、海量电子书免费下载欢迎关注微信公众号获取 Serverless 最新动态及活动欢迎加入钉钉群参与 Serverless 学习及讨论卷首语近年来,人工智能(AI)技术的迅猛发展引发了各行各业的变革,AI 应用正以不可阻挡的势头兴起。从智能客服到精准医疗,从自动驾驶到金融风控,AI 技术的广泛应用极大地提升了工作效率和决策质量。根据预测,未来几年内,AI 市场将继续快速增长,成为推动经济和社会进步的重要动力。在这一背景下,如何高效地开发、部署和维护 AI 大模型已成为技术人员亟待解决的挑战。而阿里云函数计算 FC 作为一个事件驱动的全托管 Serverless 计算服务,为 AI 应用的开发提供了
2、 Serverless GPU 算力和灵活、可扩展的解决方案。您无需管理服务器等基础设施,函数计算能够根据需求自动扩展,按需计算,从而将开发者从底层基础设施的管理中解放出来,使他们能够更专注于业务逻辑和算法优化。结合函数计算与 AI 大模型,开发者可以快速构建和部署各种 AI应用,满足市场不断变化的需求。本书旨在整理和介绍函数计算如何构建各类 AI 应用,以及如何基于函数计算结合其他云产品来部署各种 AI 大模型。书中的主要内容包括:AI 大模型的选择与应用场景,适用人群的分析,应用架构的设计,及详细的部署教程等。通过这些内容,读者将能够全面理解并掌握 AI 与函数计算结合的最佳实践,从而在自
3、己的项目中有效应用这些 AI 技术,实现更高的业务价值和技术创新。目录页一、构建个人专属 AI 助手.5二、AIGC 生图.92三、AI 内容创作.125四、打造多形态全天候 AI 客服.188五、使用 AI 快速完成文本信息处理.218六、使用 AI 快速完成图像处理.242一、构建个人专属 AI 助手5一、构建个人专属 AI 助手0 0 代码,代码,2 2 种方式,一键部署种方式,一键部署 DeepSeekDeepSeek 系列模型系列模型DeepSeek 凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。DeepSeek-R1-Distill 是使用
4、DeepSeek-R1 生成的样本对开源模型进行蒸馏得到的小模型,拥有更小参数规模,推理成本更低,基准测试同样表现出色。云原生应用开发平台 CAP 提供模型服务、应用模板两种部署方式辅助您部署 DeepSeekR1 系列模型。完成模型部署后,您可以与模型进行对话体验,或以 API 形式进行调用,接入 AI 应用中。支持的模型列表支持的模型列表部署方式说明:Ollama:轻量级推理框架,专注于量化模型部署及各种开源 LLM 部署。Transformer:由 Hugging Face 提供的模型推理框架,支持 PyTorch、TensorFlow 等模型部署。模型部署方式最低配置DeepSeek-
5、R1-Distill-Qwen-1.5BTransformerTesla16GBDeepSeek-R1-Distill-Qwen-7BTransformerTesla16GB一、构建个人专属 AI 助手6DeepSeek-R1-Distill-Llama-8BTransformerTesla16GBDeepSeek-R1-Distill-Qwen-14BTransformerAda48GBDeepSeek-R1-Distill-Qwen-32BTransformerAda48GBDeepSeek-R1-Distill-Qwen-1.5B-GGUFOllamaTesla8GBDeepSeek-R
6、1-Distill-Qwen-7B-GGUFOllamaTesla16GBDeepSeek-R1-Distill-Llama-8B-GGUFOllamaTesla16GBDeepSeek-R1-Distill-Qwen-14B-GGUFOllamaAda48GBDeepSeek-R1-Distill-Qwen-32B-GGUFOllamaAda48GB前置准备前置准备1)首次使用云原生应用开发平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。一、构建个人专属 AI 助手72)本教程在函数计算中创建的 GPU 函数,函数运行使用的资源按照
7、函数规格乘以执行时长进行计量,如果无请求调用,则只收取闲置预留模式下预置的快照费用,CAP中的极速模式等同于函数计算的闲置预留模式。建议您领取函数计算的试用额度抵扣资源消耗,超出试用额度的部分将自动转为按量计费,更多计费详情,请参见计费概述。方式一:应用模板部署方式一:应用模板部署1.1.创建项目创建项目登录函数计算 3.0 控制台,在左侧导航栏选择应用,在应用页面选择 CAP 应用平台页签,然后单击创建项目 基于模板创建。说明当左上角显示函数计算 FC 3.0 时,表示当前控制台为 3.0 控制台。一、构建个人专属 AI 助手82.2.部署模板部署模板1)在搜索栏输入 DeepSeek 进行
8、搜索,单击基于 DeepSeek-R1 构建 AI 聊天助手,进入模板详情页,单击立即部署。一、构建个人专属 AI 助手92)选择地域,单击部署项目,在项目资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,部署过程大约持续 10 分钟左右,状态显示已部署表示部署成功。3.3.验证应用验证应用部署完毕后,点击 Open-WebUI 服务,在访问地址内找到公网访问单击访问。一、构建个人专属 AI 助手10方式二:模型服务部署方式二:模型服务部署本文将以 DeepSeek-R1-Distill-Qwen-7B-GGUF 模型为例演示部署流程。使用 API 形式进行模型调
9、用,接入线上业务应用。1.1.创建空白项目创建空白项目登录函数计算 3.0 控制台,在左侧导航栏选择应用,在应用页面选择 CAP 应用平台页签,然后单击创建项目 创建空白项目。说明当左上角显示函数计算 FC 3.0 时,表示当前控制台为 3.0 控制台。一、构建个人专属 AI 助手112.2.选择模型服务选择模型服务一、构建个人专属 AI 助手123.3.部署模型服务部署模型服务1)选择模型 DeepSeek-R1-Distill-Qwen-7B-GGUF。2)单击资源配置,DeepSeek-R1-Distill-Qwen-7B-GGUF 推荐使用 Tesla 系列,可直接使用默认配置。您可以
10、根据业务诉求填写需要的卡型及规格信息。一、构建个人专属 AI 助手133)单击预览并部署,在服务资源预览对话框中,您可以看到相关的计费项,详情请见计费涉及的产品。单击确认部署,该阶段需下载模型,预计等待 10 分钟左右即可完成。4.4.尝试更多模型部署尝试更多模型部署1)如果您希望部署更多模型,但是支持列表中没有,您可以选择更多模型来源。一、构建个人专属 AI 助手142)您可以选择更多模型,以 ModelScope 为例,假设您选择DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,其参考信息如下。关于支持的模型列表,请参见 ModelScope Library 支持的模
11、型服务列表。配置名称值ModelScopeIDlmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF执行框架Ollama模型加载方式单文件加载GGUF 文件DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf一、构建个人专属 AI 助手153)如果 ModelScope Library 支持的模型列表中仍未找到所需模型,您可以登录ModelScope 官网复制相关模型 ID,并修改加载的 GGUF 文件即可。以 DeepSeek14B 为例,如希望部署 14B 模型可将配置改为以下参数。配置名称值ModelScopeID
12、lmstudio-community/DeepSeek-R1-Distill-Qwen-14B-GGUF一、构建个人专属 AI 助手16GGUF 文件DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf在下图中,其中表示为 ModelScope ID 的值,表示为 GGUF 文件,列表为不同的量化精度型文件,根据需求任选其一即可。更多 ollama 参数配置如 params,template 等,可参考 DeepSeek ollama library。14B 及以上模型需在资源配置中使用 Ada 系列显卡,并且使用全卡预留 48G 显存。5.5.验证模型服务验证模型
13、服务单击调试,即可测试和验证相关模型调用。一、构建个人专属 AI 助手17在本地命令行窗口中验证模型调用。6.6.第三方平台第三方平台 APIAPI 调用调用您可以选择在 Chatbox 等其他第三方平台中验证和应用模型调用,以下以 Chatbox 为例。一、构建个人专属 AI 助手18一、构建个人专属 AI 助手19删除项目删除项目您可以使用以下步骤删除应用,以降低产生的费用。1)进入项目详情 点击删除,会进入到删除确认对话框。2)您可以看到要删除的资源。默认情况下,云原生应用开发平台 CAP 会删除项目下的所有服务。如果您希望保留资源,可以取消勾选指定的服务,删除项目时只会删除勾选的服务。
14、3)勾选我已知晓:删除该项目及选中的服务将立刻中断其所服务的线上业务,并且不可恢复,同时将彻底删除其所依赖的云产品资源,然后单击确定删除。一、构建个人专属 AI 助手207 7 分钟极速部署专属开源对话大模型分钟极速部署专属开源对话大模型本方案将借助阿里云函数计算,您能够迅速部署并利用来自魔搭社区(ModelScope)的开源大模型,实现高效便捷的大模型服务应用。只需短短 10 分钟,即可将这些强大模型部署至阿里云函数计算平台,立即开启您的文本生成服务之旅。无需自备或维护高昂的 GPU 资源,函数计算的按需付费模式让您无需担忧前期投入与运维开销,真正实现成本节约,同时享受云计算带来的无限可能与
15、灵活性。尽情体验云计算带来的便利与灵活性。适用客户适用客户 寻求无代码途径快速探索 AI 大模型的业务人员 寻求构建 AI 大模型应用但缺乏 GPU 资源的开发者 寻求简化技术门槛以有效利用 AI 大模型的企业使用产品使用产品 函数计算 FC 文件存储 NAS方案概览方案概览本方案利用函数计算的无服务器架构,您可以在函数计算控制台选择魔搭(ModelScope)开源大模型应用模板;同时,我们将利用文件存储 NAS,为应用服务所需的大模型和相关文件提供一个安全的存储环境;最终通过访问提供的域名进行模型的调用与验证。一、构建个人专属 AI 助手21仅需三步,即可玩转目前热门开源对话大模型。本方案的
16、技术架构包括以下基础设施和云服务:函数计算:用于提供基于大模型的应用服务。文件存储 NAS:用于存放 ModelScope 模型。专有网络 VPC:用于配置专有网络,方便函数计算访问文件存储 NAS。部署应用部署应用借助于函数计算应用模板,您可以便捷地将魔搭社区的开源大模型部署到函数计算上。1)访问函数计算应用模板,参考图片模型来源选择 ModelScope;模型 ID 填入ZhipuAI/chatglm3-6b;模型版本填入 v1.0.2;地域目前仅支持华东 1(杭州)或华东 2(上海),选择华东 2(上海);模型任务类型填入 chat;Access Token 填入 ModelScope
17、的访问令牌。在 modelscope 访问令牌页面获取。其余配置项保持默认值即可,单击创建应用。模型下载可能会花费 15 分钟左右,请耐心等待部署完成。一、构建个人专属 AI 助手22a.针对当前应用,角色权限可能会不足,此时需要单击前往授权为角色授予所需权限。b.ModelScope 的访问令牌。在 modelscope 访问令牌页面获取。一、构建个人专属 AI 助手23c.更多开源 LLM,您可以到 ModelScope 官网查询对应的模型 ID。一、构建个人专属 AI 助手242)创建成功后,为应用开启闲置预留模式。配置预留实例,您可以有效避免因实例冷启动导致的请求延迟问题。同时,您可以
18、配置预留实例的弹性伸缩规则如定时伸缩和水位伸缩,提高实例使用率,解决资源浪费问题。a.应用部署完成后,在资源信息区域单击后缀为 model-app-func 的函数名称跳转至函数详情页。b.在函数详情页,选择配置页签,在左侧导航栏,选择预留实例,然后单击创建预留实例数策略。一、构建个人专属 AI 助手25c.在创建预留实例数策略页面,版本和别名选择为 LATEST,预留实例数设置为 1,启用闲置模式,然后单击确定。d.等待容器实例成功启动后,可以看到当前预留实例数为 1,且显示已开启闲置模式字样,表示闲置预留实例已成功启动。一、构建个人专属 AI 助手263)(可 选)如 果 您 不 配 置
19、存 储,应 用 会 在 相 同 地 域 下 匹 配 名 称 是Alibaba-Fc-V3-Component-Generated 的 NAS:如果有就挂载;如果没有则会新建一 个NAS,挂 载 到 后 缀 为model-cache、model-download-func和model-app-func 的函数。如果您想绑定其他已有的 NAS 文件系统,可在网络和存储进行配置,更多详情请参见配置 NAS 文件系统。使用使用 LLMLLM 应用应用部署完成后,您可以使用函数计算应用提供的域名访问服务,与模型进行对话。1)在环境详情页面,点击访问域名右侧的域名,使用 LLM 应用。重要:请注意保护域名
20、的安全,不要泄露给其他人,以防产生额外费用。* 域名是 CNCF SandBox 项目 Serverless Devs 社区所提供,仅供学习和测试使用,不可用于任何生产使用;社区会对该域名进行不定期的拨测,并在域名下发 30 天后进行回收,强烈建议您绑定自定义域名以获得更好的使用体验,详细请见配一、构建个人专属 AI 助手27置自定义域名。2)输入文本信息,然后单击 Submit,您可以看到模型的回答结果。第一次调用因为函数冷启动会花费比较长的时间大概 90s,后续回答速度会快很多。说明:函数计算平台会在您调用结束后,自动将 GPU 实例置为闲置模式,无需您手动操作,并且会在下次调用到来时,将
21、该实例唤醒,置为活跃模式进行服务。一、构建个人专属 AI 助手28总结总结至此,您已基本了解如何通过函数计算部署专属开源对话大模型,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ AI 助手291010 分钟打造专属你的网页分钟打造专属你的网页 AIAI 客服客服在这个数字化时代,提供卓越的客户服务已成为企业脱颖而出的关键。为了满足这一需求,越来越多的企业开始探索人工智能(AI)助手的应用,以实现全天候(7x24)的客户咨询响应,全面提升用户体验和业务竞争力。本解决方案通过函数计算 FC 和大模型服务平台百炼,为您提供一个高效便捷构建 AI 助手思路。通过使用百炼您可以 0
22、代码创建一个大模型 RAG 应用,来实现 AI 助手的智能问答能力。然后借助函数计算 FC 将其暴露为网页前端可访问的 API。最后在前端代码中通过几行代码引入 AI 助手,用户就可以在您的网站上看到一个 AI 助手,并与之对话。只需 10 分钟即可构建一个 AI 客服,并发布到网站、钉钉、微信公众号或企业微信中,以便全天候(724)回应客户咨询,同时可以为大模型应用配置知识库,增强检索,让其更加精准且专业地回答与商品相关的问题,提升用户体验。一、构建个人专属 AI 助手30适用客户适用客户 有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务 缺少技术人员开发大模型问答应用使用产品使用产
23、品 函数计算 FC 大模型服务平台百炼在网站中引入一个在网站中引入一个 AIAI 助手,只需助手,只需 4 4 步:步:1.创建大模型问答应用:先通过百炼创建一个大模型应用,并获取调用大模型应用API 的相关凭证。2.搭建示例网站:通过函数计算,快速搭建一个网站,模拟您的企业官网或者其他站点。3.引入 AI 助手:将通过修改几行代码,实现在网站中引入一个 AI 助手。4.增加私有知识:通过准备一些私有知识,让 AI 助手能回答原本无法准确回答的问题,帮助您更好的应对客户咨询。一、构建个人专属 AI 助手31具体步骤如下1 1、创建大模型问答应用、创建大模型问答应用我们将先通过百炼创建一个大模型
24、应用,并获取调用大模型应用 API 的相关凭证。百炼提供的新用户免费额度可以完全覆盖本教程所需资源消耗。额度消耗完后按token 计费,相比自行部署大模型可以显著降低初期投入成本。1.1 创建应用(1)进入百炼控制台的我的应用,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。一、构建个人专属 AI 助手32在应用设置页面,模型选择通义千问-Plus,其他参数保持默认。(2)您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。你叫小助,可以帮助用户解答产品选购、使用等方面的问题。(3)在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公
25、司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。一、构建个人专属 AI 助手331.2 获取调用 API 所需的凭证为了在后续通过 API 调用大模型应用的能力,我们需要获取一个百炼应用的 API-KEY和应用 ID:1)在我的应用 应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。2)在顶部导航栏右侧,点击人型图标,点击 API-KEY 进入我的 API-KEY 页面。在页面右侧,点击创建我的 API-KEY,在弹出窗口中创建一个新 API-KEY。保存 API-KEY 到本地用于后续配置。一、构建个人专属 AI 助手342.2.搭建示例网站搭建示
26、例网站我们将通过函数计算,来快速搭建一个网站,模拟您的企业官网或者其他站点。函数计算提供的免费试用额度可以完全覆盖本教程所需资源消耗。额度消耗完后按量计费,对于本教程所涉及的 Web 服务,只在有访问的情况下会产生费用。2.1 创建应用请点击这里打开我们提供的函数计算应用模板,参考下图选择直接部署、并填写前面获取到的百炼应用 ID 以及 API-KEY。然后其他表单项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成即可(预计耗时 1 分钟)。一、构建个人专属 AI 助手35这里需要填写百炼应用 ID 和 API-KEY,是因为我们预置的应用模板中包含了通过百炼应用调用大模型的代码
27、,以便您在后续快速完成体验。2.2 访问网站应用部署完成后,您可以在应用详情的环境信息中找到示例网站的访问域名,点击即可一、构建个人专属 AI 助手36查看,确认示例网站已经部署成功。本方案提供的网站为示例网站,网站本身细节内容仅展示样式,效果如下图。3.3.引入引入 AIAI 助手助手接着我们将通过修改几行代码,实现在网站中引入一个 AI 助手。一、构建个人专属 AI 助手373.13.1 增加增加 AIAI 助手相关代码助手相关代码示例工程中包含了被注释的引入 AI 助手代码,您需要找到并解除注释。详细操作步骤如下:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情
28、页。一、构建个人专属 AI 助手38进入函数详情页后,在代码视图中找到 public/index.html 文件,然后取消所在位置的代码注释即可。最后点击部署代码,等待部署完成即可。3.2 验证网站上的 AI 助手现在,您可以重新访问示例网站页面以查看最新效果。此时您会发现网站的右下角出现了 AI 助手图标,点击即可唤起 AI 助手。一、构建个人专属 AI 助手39本方案提供的网站为示例网站,网站本身细节内容仅展示样式,效果如下图。4.4.增加私有知识增加私有知识最后可以通过准备一些私有知识,让 AI 助手能回答原本无法准确回答的问题,帮助您更好的应对客户咨询。假设您在一家售卖智能手机的公司工
29、作。您的网站上会有很多与智能手机相关的信息,如支持双卡双待、屏幕、电池容量、内存等信息。不同机型的详细配置清单参考:百炼系列手机产品介绍.docx。4.14.1 配置知识库配置知识库接下来,我们可以尝试让大模型在面对客户问题时参考这份文档,以产出一个更准确的回答和建议。1)上传文件:在百炼控制台的数据管理中的非结构化数据页签中点击导入数据,根据引一、构建个人专属 AI 助手40导上传我们虚构的百炼系列手机产品介绍:根据您上传的文档大小,百炼需要一定时间解析,通常占用 16 分钟,请您耐心等待。2)建立索引:进入知识索引,根据引导创建一个新的知识库,并选择刚才上传的文件,其他参数保持默认即可。知
30、识库将为上一步骤中准备的文档建立索引,以便后续大模型回答时检索参考。一、构建个人专属 AI 助手41选择向量存储类型时,如果您希望集中存储、灵活管理多个应用的向量数据,可选择ADB-PG。一、构建个人专属 AI 助手423)引用知识:完成知识库的创建后,可以返回我的应用进入到刚才创建的应用设置界面,打开知识检索增强开关、选择目标知识库,测试验证符合预期后点击发布。Prompt 中会被自动添加一段信息,以便大模型在后续回答时参考检索出来的信息。一、构建个人专属 AI 助手434.24.2 检验效果检验效果有了参考知识,AI 助手就能准确回答关于您公司的商品的问题了。总结总结至此,您已基本了解如何
31、通过函数计算打造专属 AI 客服,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ AI 助手44与与 AIAI 智能助手实时通话智能助手实时通话本方案提供即时 AI 语音交互体验,用户只需简单添加一段 JavaScript 代码,即可轻松将AI 语音助手集成至现有网站。同时方案支持移动端扫码快速访问 H5 页面上的 AI 语音助手。此外,方案还支持定制智能体的人设,接入客户的私有知识库等功能,提供更加个性化和专业的服务。AI 智能体实时语音互动是一个端到端的解决方案,旨在为用户与 AI 智能体之间提供实时音频交互。用户通过终端 SDK 发起与云端 AI 智能体的音频通话请求,
32、AI 智能体接收到用户的音频输入后,依据预定义的工作流进行处理,生成相应的音频响应,并通过ARTC 网络将响应结果推送给用户。用户可以订阅该音频流进行播放,从而实现与 AI 智能体的对话。一、构建个人专属 AI 助手45适用客户适用客户 期望在短时间内快速构建 AI 实时互动能力的用户 需要简化开发流程,追求高效开发与低成本维护的团队使用产品使用产品 智能媒体服务 大模型服务平台百炼 视频直播 函数计算架构与部署架构与部署方案概览方案概览AI 智能体是本方案的核心组件之一,能够在云端模拟高度拟真的用户交互。用户可以根据需求自行创建智能体。通过灵活的插件式和拖拽式方式,用户可以编排各个 AI 组
33、件,如语音转文字、大语言模型、语音合成和自研向量数据库等,从而实现 AI 智能体的实时工作流。实时音视频通信技术(ARTC)为用户与 AI 智能体之间的音频通话提供了高可用、高品质、超低延时的保障。一、构建个人专属 AI 助手46方案架构如下图所示:本方案的技术架构包括以下基础设施和云服务:函数计算 FC:用于部署应用程序。实时音视频 ARTC:用来创建实时音频应用,提供 AI 智能体和用户的实时音频通话能力。智能媒体服务 IMS:用来创建实时工作流和 AI 智能体。创建实时音视频通信应用创建实时音视频通信应用实时音视频 ARTC 是智能体和用户之间建立起实时音频通信的基础,实现 AI 实时互
34、动需要准备一个 ARTC 应用,参照以下步骤开通并创建 ARTC 应用。1)开通视频直播:计费方式选择按使用流量计费,点击右下角立即开通。一、构建个人专属 AI 助手472)在视频云直播控制台左侧导航栏单击直播直播+实时音视频实时音视频 应用管理应用管理。3)单击创建应用。一、构建个人专属 AI 助手484)填写自定义的实例名称,勾选服务协议后,点击立即购买。5)提示开通成功后,刷新应用管理页面,即可查看新建的实时音视频应用。创建创建 AIAI 智能体智能体一、编排实时工作流实时工作流是一种预先定义的流程模板,用于自动化处理 ARTC 音频流。支持创建语音通话并且预设了多种功能节点,包括语音转
35、文字(STT)、文字转语音(TTS)、文生文大语言模型(LLM)等。平台提供了可直接选用的预置模板,同时,也支持根据需求创建自定义模板,让智能体自动按照预设好的流程工作。一、构建个人专属 AI 助手491)登录智能媒体服务控制台,点击立即开通按钮。2)在服务开通页面,勾选服务协议服务协议,点击立即开通按钮。3)点击服务授权按钮。一、构建个人专属 AI 助手504)在服务授权页面,点击同意授权按钮。5)登录 AI 实时互动-工作流管理,单击创建工作流模板。一、构建个人专属 AI 助手51说明AI 实时互动目前在国内可选地域包括杭州、上海、北京和深圳。请您根据自身的实际需求,先在导航栏中选择相应的
36、地域,然后再继续进行创建操作。一、构建个人专属 AI 助手526)配置基础信息:可以自定义工作流名称,便于后续创建与管理智能体时选择对应的工作流模板。7)配置工作流模板:工作流类型选择语音通话,工作流已预先配置好节点,并不支持增删操作,但可以自由编辑节点内容。一、构建个人专属 AI 助手538)依次编辑 STT 语音转文字节点、LLM 大语言模型节点、TTS 文字转语音节点的节点名称。以 SST 语音转文字节点为例,点击编辑图标。9)在弹出的节点配置页面,输入节点名称,修改完成后点击保存。10)工作流节点全部修改完成后,点击保存。一、构建个人专属 AI 助手54二、创建智能体AI 智能体是在
37、AI 实时互动解决方案中定义的高仿真用户,用户可以根据自身需求创建智能体,并将其集成到自己的应用中,使其能够按照既定工作流程在实时音频环境中运行,从而实现实时音频交互功能。1)登录 AI 实时互动-智能体管理,单击创建智能体。2)配置基础信息:可以自定义智能体名称。一、构建个人专属 AI 助手553)工作流配置:绑定之前创建的实时工作流 ID 和实时音视频 ARTC 应用,可以依据需求定制智能体的开场问候语及语音风格,完成后点击提交。部署应用部署应用1)请点击应用模板链接打开我们提供的函数计算应用模板,填写配置。一、构建个人专属 AI 助手56项目描述示例值部署类型部署方式直接部署应用名称自动
38、生成默认角色名称模板所需的角色(如果需要授权,请按照控制台提示进行授权)。默认实时音视频 AppId实时音视频应用 ID打开视频云直播控制台,点击左侧导航栏直播+实时音视频(原互动直播)应用管理,单击目标应用操作列中的管理。在基本信息页面可以看到应用 ID 和AppKey实时音视频 AppKey实时音视频 AppKey语音通话智能体的 AgentId 智能体 ID打开智能体管理,找到并复一、构建个人专属 AI 助手57制当前智能体 ID。RAM 角色 ARN函 数 计 算 访 问 对 象 存 储OSS 服务时使用的函数角色。如果提示您当前选择的应用还需要额外一些权限,请单击前往授权。地域当前应
39、用支持杭州、深圳、北京和上海四个地域。注意选择的地域与之前创建的智能体所在地域必须保持一致。默认 华东 1(杭州)2)其他配置项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成即可。一、构建个人专属 AI 助手583)应用部署完成后,可以在应用的环境详情中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。4)在浏览器中,在域名前加上“https:/”,然后按回车键。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。一、构建个人专属 AI 助手59说明应用程序需要使用麦克风,浏览器要求必须通过 HTTPS 进行连接。当前应用程序部署使用的域名
40、是由 CNCF SandBox 项目下的 Serverless Devs 社区提供的临时域名,尚未绑定有效的 SSL/TLS 证书,因此当用户访问时,浏览器会提示连接不安全。建议在生产环境中部署该应用程序时,绑定一个有效的 SSL/TLS 证书,以确保通过 HTTPS 协议实现安全连接。一、构建个人专属 AI 助手60应用体验应用体验一、实时语音对话1)单击拨打按钮,即可开始与智能体对话。2)浏览器弹窗请求使用麦克风,点击访问该网站时允许。一、构建个人专属 AI 助手613)用户可以与智能体进行实时语音对话,页面上会同步展示当前对话的文字信息,以便用户查阅对话内容。4)单击右上角的,可以开启/
41、关闭智能打断,以及选择切换音色。一、构建个人专属 AI 助手62二、如何在已有网站中快速集成 AI 语音助手1)已经拥有网站和域名,并且部署了 SSL 证书,可以在需要集成 AI 语音助手的网页中通过嵌入一段 JavaScript 代码来实现相应的功能。2)请复制并粘贴以下代码段到您的网页代码中相应的位置。一、构建个人专属 AI 助手63new ARTCAICallUI(userId:id,root:document.getElementById(root),appServer:https:/,agentType:0,userToken:token).render();参数说明:userId:
42、字符串类型,按照业务需要传入,不能为空。root:页面渲染到的节点,画面完整填充整个区域。appServer:AI 实时语音互动应用服务地址,当前即为函数计算 FC 中的访问域名。agentType:通话类型界面 0:语音通话,1:数字人通话,2:视频理解通话。userToken:用于应用鉴权,如果应用场景不需要鉴权,可以不传递此参数,但如果传递,则其值不能为空字符串。一、构建个人专属 AI 助手64三、如何在移动端快速集成 AI 语音助手1)当前 DEMO 提供了移动端扫码体验,支持使用微信/钉钉扫码,或复制链接后在手机浏览器中打开。2)在移动端浏览器打开后,点击显示详细信息。一、构建个人专
43、属 AI 助手653)在展开的详细信息中,点击访问此网站。4)接下来,即可在移动端体验 AI 实时语音对话。一、构建个人专属 AI 助手66四、个性化定制智能体人设1)可以修改现有的工作流模板,预设不同的场景和智能体人设,从而实现个性化定制,优化体验。2)在实时工作流管理中编辑当前的工作流模板,修改 LLM 大语言模型节点的配置,点击工作流页面右上角的编辑按钮,再点击 LLM 大语言模型节点的编辑按钮。一、构建个人专属 AI 助手673)修改 LLM 大语言模型节点的系统人设。4)挂断后重新接通,可以发现智能体的人设已经改变。一、构建个人专属 AI 助手68五、接入客户私有知识库如果希望智能体
44、增强某些领域的专业知识,可以通过百炼平台创建知识库和 RAG 应用,并进行配置接入。具体步骤如下:1)登录百炼控制台,点击左侧导航栏中的数据管理,然后点击页面右上角的导入数据。一、构建个人专属 AI 助手692)选择本地上传的方式,导入本地文件,可以使用我们提供的“百炼”手机详细参数.docx。一、构建个人专属 AI 助手703)在左侧导航栏中,选择数据应用知识索引。点击创建知识库。a.知识库信息:输入知识库名称,其他保持默认配置,点击下一步。一、构建个人专属 AI 助手71b.选择数据:选择之前上传的文件,点击下一步。c.数据处理:保持默认配置,点击导入完成,系统自动进行文档解析。一、构建个
45、人专属 AI 助手724)在左侧导航栏中,选择我的应用。单击新增应用智能体应用直接创建,进入创建应用页面。a.单击选择模型,例如通义千问-Max。b.打开知识库检索增强开关,单击配置知识库。c.选择知识库,即之前创建的知识索引。d.单击发布按钮。一、构建个人专属 AI 助手735)在实时工作流管理中编辑当前的工作流模板,修改 LLM 大语言模型节点的配置,点击工作流页面右上角的编辑按钮,再点击 LLM 大语言模型节点的编辑按钮。6)在弹出的配置弹窗中,模型选择这一项选择对接阿里百炼平台,百炼类型选择应用中心。7)打开百炼控制台,点击左侧导航栏我的应用,找到目标应用并复制应用 ID,填写到App
46、Id 这一栏。一、构建个人专属 AI 助手748)鼠标悬停于页面右上角的图标上,在下拉菜单中单击 API-KEY。9)在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API Key。一、构建个人专属 AI 助手75说明主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。请不要将 API Key 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。10)当调用子业务空间的应用时,需要传递业务空间标识,如果是默认业务空间可以不填写。11)挂断后重新接通,提问知识库中的内容,智能体可以给
47、出准确的回答。一、构建个人专属 AI 助手76总结总结至此,您已基本了解如何通过函数计算实现与 AI 智能体实时通话,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ AI 助手77Qwen2.5Qwen2.5 的云端新体验,的云端新体验,5 5 分钟完成极速部署分钟完成极速部署Qwen2.5 是通义千问团队开发的大规模语言和多模态系列模型,以其长文本处理能力、专业知识集成、大规模数据集预训练以及多语言处理等优势,为用户提供了快速、准确的响应,成为企业智能化转型的有效工具。将 Qwen2.5 模型部署于函数计算 FC,用户能依据业务需求调整资源配置,有效应对高并发场景,并通过优
48、化资源配置,如调整实例规格、多 GPU 部署和模型量化来提升推理速度。此外,函数计算支持多样化 GPU 计费模式(按需计费、阶梯定价、极速模式),可根据业务需求调整,在面对高频请求和大规模数据处理时,能够显著降低综合成本。适用客户适用客户 对 AI 的深度理解、多领域知识集成、高效指令执行及多语言支持有高要求的客户 期望通过可控的云服务资源配置,确保高效的模型推理和低延迟响应的企业使用产品使用产品 函数计算 FC方案概览方案概览本方案旨在介绍如何将 Qwen2.5 开源模型部署到函数计算 FC。通过函数计算 FC 部署 Ollama 和 Open WebUI 两个应用。Ollama 是一个负责
49、托管 Qwen2.5 模型的应一、构建个人专属 AI 助手78用程序,它为用户提供了多种参数规模的模型选择,并通过 Open WebUI 提供友好的交互界面,以便用户能够轻松地进行 AI 模型的部署和使用。方案提供的镜像预置了 1.5B、3B、7B 三种不同参数规模供用户选择,Open WebUI 则为用户提供友好的交互界面。借助函数计算 FC,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。函数计算 FC 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。实际部署时,您可根据具体的资源规划调整部分配置,但最
50、终的运行环境将与下图展示的架构相似。本方案的技术架构包括以下云服务:函数计算 FC:全托管的 Serverless 计算服务,用于部署模型服务与 Web 应用。一、构建个人专属 AI 助手79部署模型部署模型基于基于 OllamaOllama 部署部署 Qwen2.5Qwen2.5 模型模型我们将部署 Ollama 应用以提供模型服务。Ollama 是一个便捷的模型部署和管理工具,帮助开发者高效托管和服务化模型,便于快速集成 AI 能力。1)点击 Ollama 模板链接,访问创建 Ollama 应用页面。2)当前应用模板提供了 Qwen2.5 模型 1.5B、3B 和 7B 三种不同参数规模的
51、版本,可以在模型名称下拉列表中按需选择。3)其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如一、构建个人专属 AI 助手80下图所示。OpenOpen WebUIWebUI 调用调用 Qwen2.5Qwen2.5 模型模型Open WebUI 是一个开源项目,提供了管理和操作模型的图形界面。1)点击 Open WebUI 模板链接,访问创建 Open WebUI 应用页面。2)在高级配置 地域下拉列表中选择应用所属地域。警告:确保所选地域与 Ollama 应用创建时所选的地域一致。3)应用模板中提供了开启鉴权的选项,建议在生产环境开启,以增加安全性,防止未经一、构建个
52、人专属 AI 助手81授权的访问。4)Ollama 接口地址填入 Ollama 应用的内网访问地址。说明:Ollama 应用内网访问地址获取方式:a.打开函数计算 FC 应用页面,找到 Ollama 应用,点击应用名称进入应用详情。一、构建个人专属 AI 助手82b.在应用详情页找到函数资源,点击函数名称进入函数详情页。c.鼠标移至 HTTP 触发器,在展开的信息中复制内网访问地址。一、构建个人专属 AI 助手835)其余配置项可不作修改,点击创建并部署默认环境按钮部署应用,应用部署成功后如下图所示。6)Open WebUI 应用部署完毕后,点击访问域名。一、构建个人专属 AI 助手847)首
53、次打开需要完成实例的创建和模型的部署,请等待 3-5 分钟。应用体验应用体验一、使用一、使用 OpenOpen WebUIWebUI 调用调用 Qwen2.5Qwen2.5 模型模型1)登录 Open WebUI 后,点击 Select a model,在展开的下拉列表中选择 Qwen2.5模型。如果在下拉列表中未显示可用的模型,请尝试刷新页面以更新列表。一、构建个人专属 AI 助手852)可以在对话框中与系统进行交互,调用模型服务获得相应的响应。3)Qwen2.5 模型具备支持超过 29 种语言的能力,例如能够用法语进行自我介绍。一、构建个人专属 AI 助手864)由于融入了领域专业专家模型
54、,Qwen2.5 的知识广度和在编码与数学领域的能力都显著提升。我们可以提出一道数学题,Qwen2.5 能够给出正确的解答。5)点击图标,选择本地文档上传,可以使用我们提供的“百炼”手机详细参数.docx。一、构建个人专属 AI 助手876)针对当前文档撰写提示词“总结文档内容”。7)可以看到 Qwen2.5 模型成功提炼出了文档的关键信息。一、构建个人专属 AI 助手88说明 Open WebUI 中文设置:1)点击右上角图标,在展开的下拉列表中选择 Settings。2)在 Settings 弹窗中,选择 General Language。一、构建个人专属 AI 助手893)在展开的下拉列
55、表中找到并点击 Chinese(简体中文)。一、构建个人专属 AI 助手904)页面会自动刷新,此时 Open WebUI 的界面语言已切换为简体中文,点击保存按钮后关闭弹窗。二、函数计算二、函数计算 FCFC 自动扩缩容机制自动扩缩容机制1)回到 Ollama 函数详情页,点击实例标签,如果当前实例列表为空,可以点击图标刷新列表。一、构建个人专属 AI 助手912)实例列表中可以看到 Ollama 函数实例的数量发生了变化。这是因为函数计算 FC会根据函数调用量自动扩缩容,调用增加时创建实例,请求减少后若实例空闲超过一定时间(通常 3-5 分钟),则自动销毁以节约资源。这种动态扩缩容的机制不
56、仅提高了资源利用率,还降低了运行成本,使开发者能够专注于业务逻辑,而无需担心底层基础设施的管理。总结总结至此,您已基本了解如何通过函数计算体验 Qwen 2.5,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ 生图92二、AIGC 生图7 7 分钟玩转分钟玩转 AIAI 应用,函数计算一键部署应用,函数计算一键部署 AIAI 生图大模型生图大模型人工智能生成图像(AI 生图)的领域中,Stable Diffusion WebUI 以其强大的算法和稳定的输出质量而闻名。它能够快速地从文本描述中生成高质量的图像,为用户提供了一个直观且高效的创作平台。而 ComfyUI 则以其用户
57、友好的界面和高度定制化的选项所受到欢迎。ComfyUI 的灵活性和直观性使得即使是没有技术背景的用户也能轻松上手。本次技术解决方案通过函数计算一键部署热门 AI 生图大模型,凭借其按量付费、卓越弹性、快速交付能力的特点,完美实现低成本,免运维。方案一:利用方案一:利用 ComfyUIComfyUI 生图方案生图方案方案概览方案概览通过函数计算快速部署 ComfyUI,提供可自定义工作流的图像生成的服务。您可以通过ComfyUI 的 Web 界面自由定制图像生成流程,并且方便地复用和分享工作流。同时,可以充分利用函数计算按需付费,弹性伸缩等优势,高效地为用户提供基于 ComfyUI 的图像生成服
58、务。二、AIGC 生图93本方案的技术架构包括以下基础设施和云服务:函数计算:用于提供 ComfyUI 模型的应用服务。文件存储 NAS:用于存放预训练的 ComfyUI 模型和生成的图片。专有网络 VPC:用于配置专有网络,方便函数计算访问文件存储 NAS。部署应用部署应用一、部署 ComfyUI借助于函数计算应用模板,您可以便捷地将 ComfyUI 部署到函数计算上。1)访问函数计算应用模板,参考图片内置模型选择黏土风格;地域目前仅支持华东 1(杭州)或华东 2(上海),选择华东 1(杭州)。其余配置项保持默认值即可,单击创建应用。模型下载可能会花费 15 分钟左右,请耐心等待部署完成。二
59、、AIGC 生图94a.针对当前应用,角色权限可能会不足,此时需要单击前往授权前往授权为角色授予所需权限。二、AIGC 生图952)在弹出的对话框,仔细阅读应用创建提醒信息,勾选涉及的计费项和我已经了解上面的内容,并同意上述描述,然后单击同意并继续部署。3)部署完成后,在环境详情页面,直接单击访问域名右侧的域名,开始体验 ComfyUI图片生成。重要:请注意保护域名的安全,不要泄露给其他人,以防产生额外费用。* 域名是 CNCF SandBox 项目 Serverless Devs 社区所提供,仅供学习和测试使用,不可用于任何生产使用;社区会对该域名进行不定期地拨测,并在域名下发 30 天后进
60、行回收,强烈建议您绑定自定义域名以获得更好的使用体验,详细请见配置自定义域名。二、AIGC 生图964)首次打开 ComfyUI,遇到无法访问此网站情况,无需刷新等待 10 秒即可进入。说明:这里等待 10 秒主要是函数计算基于 Serverless 应用中心开发 ComfyUI 应用模板有冷启动。冷启动是指在函数调用链路中的代码下载、启动函数实例、进程初始化及代码初始化等环节。如果您希望消除冷启动带来的影响,可以配置预留实例,详情请参考配置预留实例。二、AIGC 生图975)ComfyUI 提供默认工作流,单击 Queue Prompt,测试制作自己的第一张图。第一次生成因为存在冷启动可能需
61、要几分钟,后续出图会快很多。说明:第一张图耗时更长是因为需要加载模型到内存。Queue Size 表示正在等待出图的个数。请您在看到 Queue Size:1 之后,耐心等待出图。下图中箭头所指的绿框表示当前工作流执行所处的位置,您可以通过观察绿框的移动查看工作流的执行进度。6)您可以自己定义提示词,单击 Queue Prompt,生成绘画,右键单击生成的绘画选择 Save Image 单击进行保存,如图所示。正向提示词 Spring,flowers,willows,little birds,distant green mountains,aboy is climbing up to the
62、mountains,smiles,Pictrue highlight,rich details反向提示词 loli,nsfw,logo,test,badhandv4,EasyNegative,mutated handsand fingers,poorly drawn face,extra limb,missing limb,disconnected limbs,malformed hands,ugly二、AIGC 生图98二、用 ComfyUI 自制黏土风格滤镜为了让您更直观的感受 ComfyUI 强大的绘图能力,我们提供了预置的工作流文件、内置大模型和 Lora 模型,让您基于函数计算轻松部
63、署 ComfyUI 应用,快速生成各类风格的滤镜图片。本文以黏土风格滤镜为例介绍相关的操作步骤。1)下载预置的工作流文件 workflow.json。打开 ComfyUI,单击 Load 按钮,选择并导入已经下载好的 workflow.json 文件。说明:ComfyUI 的工作流可以保存为一个 JSON 文件,方便您保存和分享工作流的配置,但您不需要关心 JSON 文件的具体内容。建议您下载别人配置好的工作流 JSON 文件,在ComfyUI 页面加载,快速体验和使用已有工作流。建议您访问 ComfyUI 示例查看ComfyUI 官方提供的一些工作流示例。二、AIGC 生图992)您可以在图
64、片区 Load Image 对话框选择 choose file to upload 导入需要制成“黏土风格”的原图。为了获得更好的效果,建议使用人物肖像进行测试。说明:如果找不到该选项,可以滚动鼠标滚轮将模型放大。3)选择好原图,单击右侧 Queue Prompt 等待图片生成。二、AIGC 生图1004)因为 ComfyUI 基于 Serverless 函数计算产品部署,因此生成第一张图的时候需要冷启动时间,第一张图生成需要等待 30 秒,后续每张图生成时间为 2-5 秒。二、AIGC 生图101进阶:管理模型及更多功能探索当前已实现通过函数计算部署 ComfyUI 并生成图片的功能。您还可
65、以通过自定义模型和节点等操作以满足您实际业务场景下的个性化需求。如果您需要将生成的绘画进行保存、下载等操作,则需要存储,这里以文件存储 NAS 为例,下面介绍具体的操作方法。绑定文件管理 NAS。通过函数计算控制台的网络配置,绑定专有网络、交换机。若无相关资源,需要先创建。1)进入到函数计算控制台 应用。在应用页面,单击目标应用进入应用详情。在环境详情页签,选择资源信息下的函数名称进入函数。二、AIGC 生图1022)在配置 NAS 文件存储之前,您需要为函数配置 VPC 网络访问能力。在函数详情页签,选择配置页签,在左侧导航栏,单击网络,然后进行编辑,配置完成后单击部署。自动配置自动配置如果
66、您之前未创建过 NAS 文件系统,可以选择自动配置,函数计算会为您自动创建专有网络、交换机和安全组等资源,无需您手动创建。创建完成后,也可再次按需修改。自定义配置自定义配置如果您之前创建过 NAS 文件系统,并且希望使用已有的 NAS 文件系统进行挂载,可以选择自定义配置,然后依次选择专用网络、交换机、安全组信息,这些信息需要和 NAS文件系统专有网络、交换机信息保持一致。重点配置项如图,如果您没有特殊要求,请按照图片进行配置。二、AIGC 生图1033)在函数详情页签,选择配置页签,在左侧导航栏,单击存储,单击 NAS 文件系统的编辑,进行 NAS 挂载设置。自动配置自动配置如果您未创建过
67、NAS,可以选择自动配置,函数计算将自动为您部署所有配置,单击部署。自定义配置自定义配置进行 NAS 挂载设置,依次选择 NAS 文件系统、挂载点、数据传输方式。输入远端目录/mnt/auto/comfyui,输入函数本地目录/mnt/auto。配置完成后单击部署。说明:如果您曾经在当前 NAS 中使用过 Stable Diffusion 应用,可以考虑将远端目录设置为/fc-stable-diffusion-plus,本地目录设置为/mnt/auto。大模型对文件 IO 要求较高,建议创建通用性能型 NAS 实例,NAS 会根据存储的文件大小进行计费,不同规格的 NAS 计费单价不一致,请参
68、考计费概述。二、AIGC 生图1044)在函数详情页签,单击实例,再点登录实例进入 ComfyUI 终端。函数计算支持登录运行中的函数实例,建议您在终端中执行需要的操作(如手动安装自定义节点、依赖等)。重要:在 Serverless 环境下,您的所有改动都不会真正保存,您需要将改动的文件放置在 NAS 中以持久化。二、AIGC 生图1055)访问 NAS 文件夹。通过在 NAS 控制台创建一个 NAS 浏览器应用,使访问 NAS 文件系统像访问本地文件系统一样便捷。a.登录 NAS 控制台。b.在左侧导航栏选择文件系统列表,选择目标文件系统 ID/名称。在目标文件系统的操作列,单击 图标 浏览
69、器,根据页面提示完成应用创建。c.在函数计算应用面板可查看新创建的应用。登录函数计算控制台,在左侧导航栏,单击应用。单击目标应用进入,您可以在环境详情页签单击访问域名进行文件管理。二、AIGC 生图106d.借助文件存储 NAS 的文件浏览器功能,您可以方便地进行云上文件管理。方案二:利用方案二:利用 StableStable DiffusionDiffusion WebUIWebUI 生图生图方案概览方案概览通过函数计算快速部署 Stable Diffusion WebUI,提供生成高质量图像的服务。您可以使用函数计算提供的基础 Stable Diffusion 模型,也可以通过创建模型库上
70、传自定义的Stable Diffusion 模型实现定制化创作需求。充分利用函数计算按需付费,弹性伸缩等优势,高效地为用户提供基于 Stable Diffusion 模型的文本到图像生成服务。二、AIGC 生图107本方案的技术架构包括以下基础设施和云服务:函数计算:用于提供 Stable Diffusion 模型的应用服务。文件存储 NAS:用于存放预训练的 Stable Diffusion 模型以及生成的图片文件。专有网络 VPC:用于配置专有网络,方便函数计算访问文件存储 NAS。1)在弹出的对话框,仔细阅读应用创建提醒信息,勾选涉及的计费项和我已经了解上面的内容,并同意上述描述,然后单
71、击同意并继续部署。2)在应用详情页,单击 WebUI 域名右侧的域名,等待 1 分钟左右,进入 StableDiffusion WebUI 页面。二、AIGC 生图108重要:请注意保护域名的安全,不要泄露给其他人,以防产生额外费用。* 域名为 CNCF SandBox 项目 Serverless Devs 社区所提供,仅供学习和测试使用,社区会对该域名进行不定期的拨测,并在域名下发 30 天后进行回收,强烈建议您绑定自定义域名以获得更好的使用体验。具体操作,请参见配置自定义域名。如果未绑定自定义域名,且部署的应用已超过 30 天,应用将无法打开,此时需要重新部署一次应用,然后重新挂载 NAS
72、,即可正常使用。3)进入 Stable Diffusion WebUI,您可以输入提示词,单击生成,开始制作自己的图片。建议先使用默认提示词,先尝试如何生成第一张图。您也可以自己定义提示词(推荐使用通义千问等大语言模型直接翻译成英文提示词),然后调整采样步数,采样器、高分辨率修复、图像生成种子等参数,生成更符合需求的图片。二、AIGC 生图1094)例如,需要生成一张春天相关的图片,您可以输入以下提示词。正向提示词 Spring,flowers,willows,little birds,distant green mountains,aboy is climbing up to the mou
73、ntains,smiles,Pictrue highlight,rich details反向提示词 loli,nsfw,logo,test,badhandv4,EasyNegative,mutated handsand fingers,poorly drawn face,extra limb,missing limb,disconnected limbs,malformed hands,ugly说明:首次打开 Stable Diffusion WebUI 时,会提示“无法访问此网站”,无需刷新,等待 30秒即可进入界面。如果报错 Reserve resource exceed limit,则表
74、示当前部署应用的地域 GPU 显卡资源不足,建议您切换到中国内地地域部署。二、AIGC 生图110二、进阶:创建自己的模型库并自定义模型您可以通过使用文件存储 NAS 产品,创建模型库进行上传模型、管理模型、自定义模型更换等更加灵活的操作。重要:您的模型文件存储在 NAS 中,只要存储模型就会消耗 NAS 存储资源,详情请参见计费概述。1)在应用详情页,单击初始化模型管理,开始实现模型管理功能。二、AIGC 生图1112)在弹出的对话框,了解创建上述资源的目的以及部分资源可能产生的费用,了解对应的计费规则,并决定继续部署,勾选下方的复选框,然后单击下一步。3)在初始化模型管理对话框,挂载 NA
75、S 存储并设置模型管理密钥,然后单击下一步。自动配置如果您未创建过 NAS,可以选择自动配置,函数计算将自动为您部署所有配置。手动配置如果您之前创建过 NAS,并且希望继续进行挂载,可以选择手动配置,然后依次选择专用网络、交换机、安全组、文件系统及挂载点信息。二、AIGC 生图112由于 Stable Diffusion 只支持/mnt/auto 目录,因此您至少需要有一个挂载点的 FC 目录是/mnt/auto。4)等待模型初始化后,在应用详情页面,您可以看到模型管理域名,单击此域名进入模型管理器进行模型管理。二、AIGC 生图1135)如果您上一步设置了模型管理密钥,在模型管理器登录页面输
76、入设置的密钥,然后单击登录进入模型管理器。说明:为了给您提供更好的服务,当您在右上角看到更新提醒时,请单击更新至最新版。6)(可选)从本地上传自定义模型。您可以从 ModelScope 平台下载更多模型权重。本文以上传一个 LoRA 模型为例进行介绍。在模型管理器页面,在左侧导航栏,单击文件管理,然后单击 LoRA 目录,再单击上传开始上传您的模型。二、AIGC 生图114上传完成后,您可以在对应目录下查看刚刚上传的文件。说明:上传依赖速度取决于您的网络稳定程度,如果网络不稳定可能会导致上传失败或文件损坏。二、AIGC 生图1157)(可选)选择函数计算内置的模型。为了帮助您更好地快速部署模型
77、,函数计算内置了模型仓库,您可以在左侧导航栏,单击模型库,在模型库选择自己喜欢的模型,单击下载模型,下载模型到指定目录。重要:模型仓库由阿里云 OSS 提供,模型/数据集/文件均来源于第三方,无法保证内容合规性,请您在使用前慎重考虑。8)(可选)在弹出的文件下载确认对话框,确认模型下载目录,然后单击下载选中的模型。当上传队列区域的进度条显示 100%,表示模型已经成功上传到 NAS 文件系统。上传完成后,刷新 Stable Diffusion 模型列表,即可看到已经上传的模型。二、AIGC 生图1169)(可选)使用上一步下载的模型,使用默认提示词,然后单击生成。您可以看到生成的图片风格与之前
78、的风格不同。如果模型选择列表中找不到您已下载的模型,单击模型选择右侧的刷新图标刷新后重试。二、AIGC 生图117总结总结至此,您已基本了解如何通过函数计算一键部署 AI 生图大模型,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ 生图118AIAI 剧本生成与动画创作剧本生成与动画创作短视频行业的快速增长使得内容创作的速度和质量成为竞争关键。传统动画故事制作复杂且昂贵,限制了创作者对市场热点的快速反应和创新实现。本方案通过 AI 生成剧本和动画,简化创作流程并降低技术门槛,使创作者能高效生产高质量作品,迅速适应市场需求。本方案将利用函数计算 FC 构建 Web 服务,结合百
79、炼模型服务和 ComfyUI 工具,实现了从故事剧本撰写、插图设计、声音合成和字幕添加到视频合成的一站式自动化流程。创作者只需通过简单操作,就能快速生成高质量的剧本,并一键转化为精美的动画。MISSING IMAGE:,适用客户适用客户 期望降低创作门槛、简化从剧本创作到视频成片整个过程的短视频创作者或自媒体人 期望快速实现从文本或图像到视频转换的短视频直播平台、游戏互娱、动画制作等行业使用产品使用产品 大模型服务平台百炼 函数计算 对象存储二、AIGC 生图119架构与部署架构与部署方案概览方案概览在短视频行业迅速扩张的背景下,内容创作的速度与品质已成为竞争的核心要素。动画故事作为一种引人入
80、胜的内容形式,传统上其制作流程繁琐且成本高昂,这不仅限制了创作者快速适应市场热点和趋势的能力,还因为专业技能门槛的存在,阻碍了许多创新想法的有效实现,从而制约了高质量内容的产出。本方案利用函数计算 FC 构建 Web 服务,结合百炼模型服务和 ComfyUI 工具,实现了从故事剧本撰写、插图设计、声音合成和字幕添加到视频合成的一站式自动化流程。大幅简化了动画故事的创作过程,降低了技术要求,使创作者能够更高效地生产出高质量的动画内容,快速响应市场需求,同时保证了作品的专业水准和创意表达。方案提供的默认设置完成部署后在阿里云上搭建的 Web 应用程序环境如下图所示。实际部署时您可以根据资源规划修改
81、部分设置,但最终形成的运行环境与下图相似。二、AIGC 生图120本方案的技术架构包括以下基础设施和云服务:1 个函数计算 FC 应用:分别部署 ComfyUI 和 WebUI 两个函数。1 个对象存储 OSS Bucket:存储图片、音频、视频等。百炼模型服务:调用 API 完成剧本生成,语音合成和字幕相关信息生成。部署应用部署应用请点击前往部署打开我们提供的函数计算应用模板,参考下表进行参数配置,然后单击创建并部署默认环境。二、AIGC 生图121项目描述示例值部署类型部署方式。直接部署应用名称自动生成。默认角色名称模板所需的角色(如果需要授权,请按照控制台提示进行授权)。默认地域FC 部
82、署地域。默认 华东 1(杭州)百炼 API-KEY百炼 API-KEY。部署资源中获取的百炼 API-KEY对象存储存储桶名下拉选择 Bucket 名称。animation-creation-testRAM 角色 ARN函数计算访问对象存储OSS 服务时使用的函数角色。如果提示您当前选择的应用还需要额外一些权限,请单击前往授权。方案验证方案验证一、访问示例应用1)应用部署完成后,您可以在环境详情的环境信息中找到示例网站的访问域名。二、AIGC 生图1222)点击访问域名,即可打开示例应用。3)您可以上传图片生成类似人物,给出剧本提示词,选择旁白声音,进行 AI 短剧创作,或直接选择官方示例进行
83、创作。二、使用官方示例,进行视频生成1)在视频生成时,使用默认填写的人物描述和剧本提示词进行视频生成。a.鼠标移动到示例 1,然后单击使用该示例。二、AIGC 生图123b.单击生成视频,预计等待 1520 分钟即可查看生成结果。二、AIGC 生图124总结总结至此,您已基本了解如何通过函数计算实现剧本生成与动画制作,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ 内容创作125三、AI 内容创作“爆款爆款”批量生成,如何实现一键创作批量生成,如何实现一键创作 AIAI 有声绘本?有声绘本?有声读物作为备受欢迎的内容形式之一,已在教育、影视、文化及娱乐等多个领域广泛应用。本方
84、案通过云原生应用开发平台 CAP、函数计算 FC 和百炼模型服务,实现了有声绘本读物的自动化创作,解决了传统制作中步骤繁琐、周期长和高技术门槛的问题,显著提高了创作效率。内容与动作本方案实现了从文案、声音、字幕、图像生成到视频合成的一站式自动化流程。用户无需具备复杂的编程技能,只需通过可视化工作流搭建界面,即可轻松配置和管理视频制作流程。您可以通过这个解决方案制作科普资料、儿童绘本、有声读物等内容,尝试多种内容组合实现“爆款”的一键生成。三、AI 内容创作126适用客户适用客户 希望利用 AI 制作高质量视频以吸引观众的内容创作者 需要快速制作大量图文内容满足市场需求的营销团队 期望通过 AI
85、 生成内容提升品牌影响力的企业使用产品使用产品 云原生应用开发平台 CAP 函数计算 FC 大模型服务平台百炼 对象存储架构与部署架构与部署方案概览方案概览在短视频行业快速发展的今天,内容创作的效率和质量成为平台竞争的关键。有声读物在多个领域广泛应用,但传统制作过程复杂,技术和时间成本高。因此,简化制作流程、提高效率并降低成本对于满足市场需求至关重要。本方案使用云原生应用开发平台 CAP 构建 Web 服务,由其提供函数计算资源以及工作流能力,结合百炼模型服务实现了从文案、声音、字幕、图像生成到视频合成的一站式自动化流程,用户访问 Web 页面发起请求调用工作流,工作流向百炼模型服务发起调用,
86、进一步整合处理后返回给用户。最终形成的运行环境与下图相似。三、AI 内容创作127本方案的技术架构包括以下基础设施和云服务:1 个云原生应用开发平台 CAP 项目:用于部署有声读物 Web 服务和任务处理工作流。1 个对象存储 OSS Bucket:存储图片、音频、视频等。百炼模型服务:调用 API 完成内容生成、语音合成和字幕相关信息生成。部署应用部署应用请点击前往部署打开我们提供的云原生应用开发平台 CAP 项目模板,参考下表进行参数配置,然后单击部署项目,最后在弹出面板中单击确认部署。说明首次使用云原生应用开放平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,
87、等待授权结束后单击返回控制台。三、AI 内容创作128项目描述示例值项目名称自动生成。默认地域FC 部署地域。默认 华东 1(杭州)百炼 API-KEY百炼 API-KEY。部 署 资 源 中 获 取 的 百 炼API-KEY对象存储存储桶名下拉选择 Bucket 名称。ai-audiobook函数访问 OSS 需要的角色及权限函数计算访问对象存储 OSS 服务时使用的函数角色。如果提示您当前选择的应用还需要额外一些权限,请单击前往授权。命名空间自动生成,通过命名空间来区分不同的应用地址默认工作流访问函数需要的角色流程运行时需要使用的服务角色,流程会使用此角色调度您的函数。如果提示您当前选择的
88、应用还需要额外一些权限,请单击前往授权。函数调用工作流需要的角色及权限函数中需要基于此角色访问CloudFlow,并调用StartSyncExecution 和在线查询流程。如果提示您当前选择的应用还需要额外一些权限,请单击前往授权。三、AI 内容创作129方案验证方案验证一、访问示例应用1)应用部署完成之后按照下图找到访问地址。2)点击访问地址,即可打开示例应用。三、AI 内容创作130二、使用官方示例,进行视频生成1)在视频生成时,使用默认填写的人物描述和剧本提示词进行视频生成。2)鼠标移动到示例 1,然后单击使用该示例。3)单击生成视频,预计等待 25 分钟即可查看生成结果。三、AI 内
89、容创作131总结总结至此,您已基本了解如何通过函数计算一键创作 AI 有声绘本,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ 内容创作132利用函数计算实利用函数计算实现现 A AI I 语音交互语音交互 GPT-SovitGPT-Sovits s 模型部署详解模型部署详解想象一下,只需简单几步操作,就能生成逼真的语音效果,无论是为客户服务还是为游戏角色配音,都能轻松实现。GPT-Sovits 模型,其高效的语音生成能力为实现自然、流畅的语音交互提供了强有力的技术支持。本文将详细介绍如何利用函数计算平台部署GPT-Sovits 模型,以构建一个高效、可扩展的 AI 语音交互
90、系统。通过这一部署方案,开发者和企业能够快速集成语音合成功能,实现从文本到语音的无缝转换,进而推动智能语音应用的创新和发展。方案概览方案概览通过函数计算快速部署 GPT-Sovits 语音生成模型,提供语音生成服务。只需要少量样本的声音数据源,就可以实现高度相似的仿真效果。充分利用函数计算按需付费,弹性伸缩等优势,高效、低成本地为用户提供基于 GPT-Sovits 模型的文本到语音生成服务。本方案的技术架构包括以下基础设施和云服务:函数计算:用于提供 GPT-Sovits 模型的应用服务。在 GPT-SoVITS 应用界面,用户选择 GPU 模型列表,然后上传一段自己准备的 310s 的样本语
91、音或者使用函数计算提供的语音模板,输入需要生成的语音提示语开始生成语音。语音生成成功后,可以三、AI 内容创作133在 GPT-SoVITS 界面查看并播放生成的语音,也可以在 NAS 文件存储系统中下载生成的语音。文件存储 NAS:用于存放预训练的 GPT-Sovits 模型以及生成的语音文件。专有网络 VPC:用于配置专有网络,方便函数计算访问文件存储 NAS。部署部署 GPT-SovitsGPT-Sovits 应用应用借助于函数计算应用模板,您可以便捷地将 GPT-Sovits 应用部署到函数计算上。1)访问函数计算应用模板,参考图片,地域目前仅支持华东 1(杭州)或华东 2(上海),选
92、择华东 1(杭州)。其余配置项保持默认值即可,单击创建应用。模型下载可能会花费 15 分钟左右,请耐心等待部署完成。针对当前应用,角色权限可能会不足,此时需要单击前往授权为角色授予所需权限。三、AI 内容创作1342)在弹出的对话框,仔细阅读应用创建提醒信息,勾选涉及的计费项和我已经了解上面的内容,并同意上述描述,然后单击同意并继续部署。3)等待约 1 分钟,部署状态变为部署成功,表示应用部署成功,单击环境信息区域的访问域名开始体验应用。首次访问,大约需要等待 30 秒,即可进入 FC 版 GPT-SoVITS 界面。重要:请注意保护域名的安全,不要泄露给其他人,以防产生额外费用。* 域名为
93、CNCF SandBox 项目 Serverless Devs 社区所提供,仅供学习和测试使用,社区会对该域名进行不定期的拨测,并在域名下发 30 天后进行回收,强烈建议您绑定自定义域名以获得更好的使用体验。三、AI 内容创作135如果未绑定自定义域名,且部署的应用已超过 30 天,应用将无法打开,此时需要重新部署一次应用,然后重新挂载 NAS,即可正常使用。入门:快速体验使用入门:快速体验使用 GPT-SovitsGPT-Sovits 合成语音合成语音1)在 FC 版 GPT-SoVITS 界面,选择语音克隆&推理页签,选择使用模板音频或个人上传音频作为参考音频,然后输入文本,单击合成语音,
94、开始体验声音的合成。使用模板音频函数计算提供了小精灵和甜美女生的语音模板,您可以直接选择。个人上传音频如果您想生成特定音色、情感、语速的语音,需要上传 310 秒的参考音频,并填写参考音频的文本,选择参考音频的语种。重要:GPT-SoVITS 使用者和语音导出者需要对自己合成的语音进行妥善保管,因语音传三、AI 内容创作136播导致的法律问题不在函数计算负责范围内。2)等待语音合成完成后,单击右下角的播放按钮播放语音,或可以单击 下载,下载生成的语音。说明:如果语音合成失败,您可以为应用创建的函数一键启用日志功能,再次进行语音三、AI 内容创作137合成,并根据日志进行分析和定位问题。三、AI
95、 内容创作138进阶:使用进阶:使用 GPT-SovitsGPT-Sovits 进行语音模型训练进行语音模型训练您可以通过声音源文件微调 GPT-Sovits 大模型,生成更加符合要求的语音。在微调训练过程中,训练步骤的所有中间产物将置于 NAS 文件管理系统的 output 文件夹下。训练将使用默认的 UVR5 和 ASR 模型。若需要使用其他的 UVR5 和 ASR 模型,可根据官方README 下 载,并 分 别 置 于 NAS 文 件 管 理 系 统 的 tools/asr/models 和tools/uvr5/uvr5_weights 目录下。步骤一:可视化管理 NAS 中的语音文件
96、为了方便后续查看预处理的音频文件和训练后的模型。您可以按照如下步骤创建一个新的函数计算应用部署 NAS 浏览器,实现可视化管理 NAS 上的文件。1)在应用详情页的资源信息区域找到默认挂载的文件存储 NAS,然后单击挂载点链接跳转至 NAS 文件存储控制台。三、AI 内容创作1392)单击左侧菜单文件系统 文件系统列表,返回文件系统列表页面。在列表中找到函数计算关联的 NAS 实例,单击目标 NAS 文件系统右侧操作列的 浏览器。3)等待创建完成,再次单击目标 NAS 文件系统右侧操作列的 浏览器,即可打开NAS 浏览器页面。步骤二:数据预处理1)在 FC 版 GPT-SoVITS 界面,选择
97、数据预处理页签。三、AI 内容创作1402)在输入待处理音频文件夹路径输入框中输入您在 NAS 文件存储系统中存放的需要预处理的音频,或直接上传需要预处理的音频,选择模型以及需要导出的文件格式,然后单击开启数据预处理。关于各种模型的介绍,请参见 FC 版 GPT-SoVITS 界面上方的介绍。在数据预处理输出信息区域,提示 ASR 任务完成后,在对应的 NAS 文件系统的/output/目录,您可以获取预处理后的音频。各种预训练产物以及存储路径的对应关系如下。预训练流程产物存储路径降噪后的语音文件:/output/denoise_opt音频分割后的片段:/output/slicer_opt使用
98、 ASR 模型自动语音识别后的文字:/output/asr_opt使用 UVR5 模型进行人声和伴奏分离后的文件:/output/uvr5_opt三、AI 内容创作141步骤三:(可选)训练语音文本校对如果步骤二:数据预处理结果中,使用 ASR 模型自动语音识别到的文字与实际不相同,可通过文本校对工具进行修改。1)在 FC 版 GPT-SoVITS 界面,选择训练语音文本校对页签。2)在.list 标注文件的路径输入框中输入步骤二:数据预处理的结果中使用 ASR 模型自三、AI 内容创作142动语音识别后的文字对应的文件 denoise_opt.list 所在的完整路径,然后依次单击下方的按钮
99、进行调整。按钮功能介绍如下:按钮名称按钮功能介绍Change Index/Refresh跳转页码。当前页面文字校对完成后,单击此按钮进行翻页。Submit Text保存修改。如果某个识别的文字错误,修改后需单击此按钮保存。Merge Audio合并音频。Delete Audio删除音频。请谨慎使用,删除音频后将不再进行训练。Previous Index上一页。Next Index下一页。Split Audio分割音频。Save File保存文件。校对完成后,要单击此按钮保存文件。Invert Selection反向选择。三、AI 内容创作143步骤四:开始模型训练1)在 FC 版 GPT-So
100、VITS 界面,选择模型微调页签,在下方实验/模型名输入框输入您的模型名称,然后单击开启 SoVITS 训练或开启 GPT 训练进行模型训练。训练后的模型将存储在 NAS 下的 GPT_weights 和 SoVITS_weights 文件夹内。三、AI 内容创作1442)在 FC 版 GPT-SoVITS 界面,选择语音克隆&推理页签,使用您自己的模型进行再次语音合成。更多操作说明,请参见入门:快速体验使用 GPT-Sovits 合成语音。说明:如果 GPT 模型列表和 SoVITS 模型列表未找到您自己的模型,请单击右侧的刷新模型路径。三、AI 内容创作145总结总结至此,您已基本了解如何
101、通过函数计算实现 AI 语音交互,更多细节以及后续清理资源,欢迎您移步官网查看详情:https:/ 内容创作146智能理解智能理解 PPTPPT 内容,快速生成讲解视频内容,快速生成讲解视频当我们想根据一版 PPT 制作出相对应的解锁视频时,从撰写解锁词,录制音频到剪辑视频,每一个环节都需要投入大量的时间和精力,本方案将依托于阿里云函数计算 FC 和百炼模型服务,实现从 PPT 到视频的全自动转换,将静态的 PPT 转化为动态视频。本方案利用函数计算 FC 部署 Web 应用,调用百炼模型服务实现 PPT 到视频的自动转换。视觉模型智能理解 PPT 图文内容,快速生成相匹配的解说词;文本模型对
102、解说词进行优化,提高其可读性和吸引力;语音模型则根据解说词生成生动流畅的旁白音频。整个过程高度集成,只需一键操作,系统即可自动整合图片、文本和音频素材,快速生成对应讲解视频。三、AI 内容创作147适用客户适用客户 期望通过 AI 技术将 PPT 转换为教学视频的在线教育机构 希望减少视频内容创作时间和成本,专注于创意构思的自媒体创作者使用产品使用产品 大模型服务平台百炼 函数计算 对象存储架构与部署架构与部署在制作线上课程、自媒体内容或者活动宣传视频时,用户通常需要撰写解说词、录制音频和剪辑视频,制作流程繁琐且周期较长。本方案利用函数计算 FC 部署 Web 应用,调用百炼模型服务实现 PP