Tags / Generative AI and Machine Learning
使用Bedrock批量推理Batch Inference处理Embedding任务
云上私有化模型部署:使用llama.cpp和vLLM在CPU和GPU上运行开源模型
使用Nova MME多模态Embedding模型进行图片搜索
GenAI/Bedrock/Claude/Nova/MCP/Agentic汇总
Bedrock Agentcore 入手 (一) 之Code Interpreter代码沙箱
在Bedrock上使用OpenAI风格的单一API Key
Strands Agents 下篇 - Multi-Agent & A2A
Strands Agents 中篇 - 构建 Agent & Agent as Tool
Strands Agents 上篇 - Tool use & 构建MCP Server
使用Amazon Bedrock Inference Profile结合Tag实现模型调用费用分拆
MCP系列:启动你的第一个MCP Server并与之交互
在Bedrock上以导入自定义模型的方式部署DeepSeek R1模型蒸馏的Llama70b模型
使用Ollama在MacOS本机和AWS EC2 G系列机型上运行DeepSeek R1蒸馏模型
使用AWS平台上的ASR(Transcribe)和TTS(Polly)服务
配置CloudFront及Lambda@Edge为Bedrock加速
使用IAM Policy指定IP范围以限制用户对Bedrock服务的调用
Bedrock上的Claude模型的Tool use
通过分析Bedrock日志来获取不同应用各自调用成本
借助Bedrock Access Gateway实现OpenAI代码兼容的Claude 3模型调用
使用Claude 3进行OCR文字识别将影印件PDF并转换为Markdown文本格式