agentscope.prompt._prompt_generator_zh 源代码

# -*- coding: utf-8 -*-
"""Prompt generator class."""
from typing import List, Literal, Optional

from ._prompt_generator_base import SystemPromptGeneratorBase
from ._prompt_utils import _DEFAULT_EXAMPLE_LIST_ZH

_DEFAULT_META_PROMPT_ZH = """
你是一个擅长写和优化system prompt的专家。你的任务是优化用户提供的prompt, 使得优化后的system prompt包含对agent的角色或者性格描述,agent的技能点,和一些限制。

## 注意
1. 优化后的system prompt必须与用户原始prompt意图一致,可适当加入可调用的工具、具体关键词、时间框架、上下文或任何可以缩小范围并指导agent能够更好地理解完成任务的附加信息,对用户的prompt进行重构。
2. 请注意角色描述和技能点的描述不能缩小用户原始prompt定义的范围。例如用户原始prompt里描述的是文案大师,优化后的prompt描述不能缩小范围变成小红书文案大师。
3. 对技能点的描述应该尽量详细准确。用户原始的prompt会提到一些示例,技能点应该能覆盖这些案例,但注意不能只局限于用户prompt里给的示例。例如用户原始prompt里提到出题机器人可以出填空题的考题的示例,优化后的prompt里技能点不能只包括出填空题。
4. 技能范围不能超过大模型的能力,如果超过,请必须注明需要调用哪些工具,或者需要哪些知识库来帮助大模型拥有这个技能。比如大模型并没有搜索功能,如果需要搜索,则需要调用搜索工具来实现。
5. 请以markdown的格式输出优化后的prompt。
6. 优化后的prompt必须语言简练,字数不超过1000字。
7. 如果用户提供的prompt包含知识库或者Memory部分,优化后的system prompt也必须保留这些部分。
8. 如果prompt中含有如下标识符的变量:${{variable}}, 请确保改变量在优化后的prompt里只出现一次,在其他要使用该变量的地方直接使用该变量名。例如${{document}}再次出现的时候,请直接使用"检索内容"。
9. 优化后的prompt语言与用户提供的prompt一致,即用户提供的prompt使用中文写的,优化后的prompt也必须是中文, 如果用户提供的prompt使用英文写的,优化后的prompt也必须是英文。
"""  # noqa

_DEFAULT_EXAMPLE_PROMPT_TEMPLATE_ZH = """## 样例{index}
- 用户输入:
```
{user_prompt}
```

- 优化后的system prompt:
```
{opt_prompt}
```
"""

_DEFAULT_RESPONSE_PROMPT_TEMPLATE_ZH = """## 用户输入
```
{user_prompt}
```

## 优化后的system prompt
"""

# The name of the default local embedding model, which is used when
# `embed_model_config_name` is not provided.
_DEFAULT_LOCAL_EMBEDDING_MODEL = "sentence-transformers/all-mpnet-base-v2"


[文档] class ChineseSystemPromptGenerator(SystemPromptGeneratorBase): """Optimize the users' system prompt with the given meta prompt and examples if provided."""
[文档] def __init__( self, model_config_name: str, meta_prompt: str = _DEFAULT_META_PROMPT_ZH, response_prompt_template: str = _DEFAULT_RESPONSE_PROMPT_TEMPLATE_ZH, example_num: int = 0, example_list: List = _DEFAULT_EXAMPLE_LIST_ZH, example_selection_strategy: Literal["random", "similarity"] = "random", example_prompt_template: str = _DEFAULT_EXAMPLE_PROMPT_TEMPLATE_ZH, embed_model_config_name: Optional[str] = None, local_embedding_model: str = _DEFAULT_LOCAL_EMBEDDING_MODEL, ): super().__init__( model_config_name=model_config_name, meta_prompt=meta_prompt, response_prompt_template=response_prompt_template, example_num=example_num, example_list=example_list, example_selection_strategy=example_selection_strategy, example_prompt_template=example_prompt_template, embed_model_config_name=embed_model_config_name, local_embedding_model=local_embedding_model, )