
अवलोकन
यह दस्तावेज़ BeeAI Framework का उपयोग करके Agent2Agent (A2A) संचार को कैसे लागू करना है, इसका प्रदर्शन करता है, जिसमें सर्वर-साइड (Agent) और क्लाइंट-साइड (Host) दोनों के पूर्ण कार्यान्वयन शामिल हैं। यह उदाहरण वेब खोज और मौसम क्वेरी क्षमताओं के साथ एक बुद्धिमान चैट एजेंट का प्रदर्शन करता है।
आर्किटेक्चर अवलोकन
sequenceDiagram
participant User as उपयोगकर्ता
participant Client as BeeAI Chat Client
participant Server as BeeAI Chat Agent
participant LLM as Ollama (granite3.3:8b)
participant Tools as टूल संग्रह
User->>Client: चैट संदेश इनपुट
Client->>Server: HTTP अनुरोध (A2A Protocol)
Server->>LLM: उपयोगकर्ता अनुरोध प्रसंस्करण
LLM->>Tools: टूल कॉल (खोज/मौसम आदि)
Tools-->>LLM: टूल परिणाम वापसी
LLM-->>Server: प्रतिक्रिया उत्पन्न करना
Server-->>Client: A2A प्रतिक्रिया वापसी
Client-->>User: चैट परिणाम प्रदर्शन
परियोजना संरचना
samples/python/
├── agents/beeai-chat/ # A2A सर्वर (Agent)
│ ├── __main__.py # सर्वर मुख्य प्रोग्राम
│ ├── pyproject.toml # निर्भरता कॉन्फ़िगरेशन
│ ├── Dockerfile # कंटेनराइज़ेशन कॉन्फ़िगरेशन
│ └── README.md # सर्वर दस्तावेज़ीकरण
└── hosts/beeai-chat/ # A2A क्लाइंट (Host)
├── __main__.py # क्लाइंट मुख्य प्रोग्राम
├── console_reader.py # कंसोल इंटरैक्शन इंटरफ़ेस
├── pyproject.toml # निर्भरता कॉन्फ़िगरेशन
├── Dockerfile # कंटेनराइज़ेशन कॉन्फ़िगरेशन
└── README.md # क्लाइंट दस्तावेज़ीकरण
पर्यावरण सेटअप
सिस्टम आवश्यकताएं
uv इंस्टॉल करें
# macOS/Linux
curl -LsSf https://astral.sh/uv/install.sh | sh
# या pip का उपयोग करें
pip install uv
Ollama और मॉडल इंस्टॉल करें
# Ollama इंस्टॉल करें
curl -fsSL https://ollama.com/install.sh | sh
# आवश्यक मॉडल डाउनलोड करें
ollama pull granite3.3:8b
A2A सर्वर कार्यान्वयन (Agent)
मुख्य कार्यान्वयन विश्लेषण
सर्वर BeeAI Framework के RequirementAgent और A2AServer का उपयोग करके बुद्धिमान एजेंट सेवाएं प्रदान करता है:
def main() -> None:
# LLM मॉडल कॉन्फ़िगर करें
llm = ChatModel.from_name(os.environ.get("BEEAI_MODEL", "ollama:granite3.3:8b"))
# टूल कॉन्फ़िगरेशन के साथ एजेंट बनाएं
agent = RequirementAgent(
llm=llm,
tools=[ThinkTool(), DuckDuckGoSearchTool(), OpenMeteoTool(), WikipediaTool()],
memory=UnconstrainedMemory(),
)
# A2A सर्वर शुरू करें
A2AServer(
config=A2AServerConfig(port=int(os.environ.get("A2A_PORT", 9999))),
memory_manager=LRUMemoryManager(maxsize=100)
).register(agent).serve()
मुख्य विशेषताएं
- टूल एकीकरण: सोच, वेब खोज, मौसम क्वेरी, Wikipedia क्वेरी का समर्थन करता है
- मेमोरी प्रबंधन: सत्र स्थिति प्रबंधित करने के लिए LRU कैश का उपयोग करता है
- पर्यावरण कॉन्फ़िगरेशन: पर्यावरण चर के माध्यम से मॉडल और पोर्ट कॉन्फ़िगरेशन का समर्थन करता है
uv के साथ सर्वर चलाएं
git clone https://github.com/a2aproject/a2a-samples.git
# सर्वर डायरेक्टरी में प्रवेश करें
cd samples/python/agents/beeai-chat
# uv के साथ वर्चुअल वातावरण बनाएं और निर्भरताएं इंस्टॉल करें
uv venv
source .venv/bin/activate # Linux/macOS
uv pip install -e .
# महत्वपूर्ण नोट
uv add "a2a-sdk[http-server]"
# सर्वर शुरू करें
uv run python __main__.py
पर्यावरण चर कॉन्फ़िगरेशन
export BEEAI_MODEL="ollama:granite3.3:8b" # LLM मॉडल
export A2A_PORT="9999" # सर्वर पोर्ट
export OLLAMA_API_BASE="http://localhost:11434" # Ollama API पता
A2A क्लाइंट कार्यान्वयन (Host)
मुख्य कार्यान्वयन विश्लेषण
क्लाइंट सर्वर के साथ संचार करने के लिए A2AAgent का उपयोग करता है, एक इंटरैक्टिव कंसोल इंटरफ़ेस प्रदान करता है:
async def main() -> None:
reader = ConsoleReader()
# A2A क्लाइंट बनाएं
agent = A2AAgent(
url=os.environ.get("BEEAI_AGENT_URL", "http://127.0.0.1:9999"),
memory=UnconstrainedMemory()
)
# उपयोगकर्ता इनपुट प्रसंस्करण लूप
for prompt in reader:
response = await agent.run(prompt).on(
"update",
lambda data, _: (reader.write("Agent 🤖 (debug) : ", data)),
)
reader.write("Agent 🤖 : ", response.result.text)
इंटरैक्टिव इंटरफ़ेस विशेषताएं
- रियल-टाइम डिबगिंग: एजेंट प्रसंस्करण के दौरान डिबग जानकारी दिखाता है
- सुंदर निकास: प्रोग्राम से बाहर निकलने के लिए 'q' इनपुट करें
- त्रुटि हैंडलिंग: खाली इनपुट और नेटवर्क अपवादों को संभालता है
uv के साथ क्लाइंट चलाएं
# क्लाइंट डायरेक्टरी में प्रवेश करें
cd samples/python/hosts/beeai-chat
# uv के साथ वर्चुअल वातावरण बनाएं और निर्भरताएं इंस्टॉल करें
uv venv
source .venv/bin/activate # Linux/macOS
uv pip install -e .
# क्लाइंट शुरू करें
uv run python __main__.py
पर्यावरण चर कॉन्फ़िगरेशन
export BEEAI_AGENT_URL="http://127.0.0.1:9999" # सर्वर पता
पूर्ण निष्पादन प्रवाह
1. सर्वर शुरू करें
# टर्मिनल 1: A2A सर्वर शुरू करें
cd samples/python/agents/beeai-chat
uv venv && source .venv/bin/activate
uv pip install -e .
uv add "a2a-sdk[http-server]"
uv run python __main__.py
# आउटपुट
INFO: Started server process [73108]
INFO: Waiting for application startup.
INFO: Application startup complete.
INFO: Uvicorn running on http://0.0.0.0:9999 (Press CTRL+C to quit)
2. क्लाइंट शुरू करें
# टर्मिनल 2: A2A क्लाइंट शुरू करें
cd samples/python/hosts/beeai-chat
uv venv && source .venv/bin/activate
uv pip install -e .
uv run python __main__.py
# आउटपुट
Interactive session has started. To escape, input 'q' and submit.
User 👤 : what is the weather of new york today
Agent 🤖 (debug) : value={'id': 'cb4059ebd3a44a2f8b428d83bbff8cac', 'jsonrpc': '2.0', 'result': {'contextId': 'b8a8d863-4c7d-48b7-9bdd-2848abccaae3', 'final': False, 'kind': 'status-update', 'status': {'state': 'submitted', 'timestamp': '2025-09-02T07:52:09.588387+00:00'}, 'taskId': '6e0fce64-51f0-4ad3-b0d5-c503b41bf63a'}}
Agent 🤖 (debug) : value={'id': 'cb4059ebd3a44a2f8b428d83bbff8cac', 'jsonrpc': '2.0', 'result': {'contextId': 'b8a8d863-4c7d-48b7-9bdd-2848abccaae3', 'final': False, 'kind': 'status-update', 'status': {'state': 'working', 'timestamp': '2025-09-02T07:52:09.588564+00:00'}, 'taskId': '6e0fce64-51f0-4ad3-b0d5-c503b41bf63a'}}
Agent 🤖 (debug) : value={'id': 'cb4059ebd3a44a2f8b428d83bbff8cac', 'jsonrpc': '2.0', 'result': {'contextId': 'b8a8d863-4c7d-48b7-9bdd-2848abccaae3', 'final': True, 'kind': 'status-update', 'status': {'message': {'contextId': 'b8a8d863-4c7d-48b7-9bdd-2848abccaae3', 'kind': 'message', 'messageId': '8dca470e-1665-41af-b0cf-6b47a1488f89', 'parts': [{'kind': 'text', 'text': 'The current weather in New York today is partly cloudy with a temperature of 16.2°C, 82% humidity, and a wind speed of 7 km/h.'}], 'role': 'agent', 'taskId': '6e0fce64-51f0-4ad3-b0d5-c503b41bf63a'}, 'state': 'completed', 'timestamp': '2025-09-02T07:52:39.928963+00:00'}, 'taskId': '6e0fce64-51f0-4ad3-b0d5-c503b41bf63a'}}
Agent 🤖 : The current weather in New York today is partly cloudy with a temperature of 16.2°C, 82% humidity, and a wind speed of 7 km/h.
User 👤 :
3. इंटरैक्शन उदाहरण
Interactive session has started. To escape, input 'q' and submit.
User 👤 : आज दिल्ली का मौसम कैसा है?
Agent 🤖 (debug) : दिल्ली की मौसम जानकारी प्राप्त की जा रही है...
Agent 🤖 : नवीनतम मौसम डेटा के अनुसार, दिल्ली आज बादल छाए हुए हैं, तापमान 15-22°C, आर्द्रता 65%, और हवा की गति 3m/s है।
User 👤 : कृत्रिम बुद्धिमत्ता में नवीनतम विकास खोजें
Agent 🤖 (debug) : AI संबंधित जानकारी खोजी जा रही है...
Agent 🤖 : खोज परिणामों के आधार पर, AI क्षेत्र में हाल के प्रमुख विकास में शामिल हैं...
User 👤 : q
तकनीकी बिंदु
निर्भरता प्रबंधन
दोनों परियोजनाएं निर्भरताओं को प्रबंधित करने के लिए pyproject.toml का उपयोग करती हैं:
सर्वर निर्भरताएं:
dependencies = [
"beeai-framework[a2a,search] (>=0.1.36,<0.2.0)"
]
क्लाइंट निर्भरताएं:
dependencies = [
"beeai-framework[a2a] (>=0.1.36,<0.2.0)",
"pydantic (>=2.10,<3.0.0)",
]
मेमोरी प्रबंधन
- सर्वर सत्र संख्या सीमित करने के लिए
LRUMemoryManagerका उपयोग करता है - क्लाइंट और सर्वर दोनों बातचीत इतिहास बनाए रखने के लिए
UnconstrainedMemoryका उपयोग करते हैं
टूल एकीकरण
सर्वर कई टूल एकीकृत करता है:
ThinkTool: आंतरिक सोच और तर्कDuckDuckGoSearchTool: वेब खोजOpenMeteoTool: मौसम क्वेरीWikipediaTool: Wikipedia क्वेरी
विस्तार और अनुकूलन
नए टूल जोड़ना
from beeai_framework.tools.custom import CustomTool
agent = RequirementAgent(
llm=llm,
tools=[
ThinkTool(),
DuckDuckGoSearchTool(),
OpenMeteoTool(),
WikipediaTool(),
CustomTool() # कस्टम टूल जोड़ें
],
memory=UnconstrainedMemory(),
)
कस्टम क्लाइंट इंटरफ़ेस
आप GUI या वेब इंटरफ़ेस लागू करने के लिए ConsoleReader को बदल सकते हैं:
class WebInterface:
async def get_user_input(self):
# वेब इंटरफ़ेस इनपुट लागू करें
pass
async def display_response(self, response):
# वेब इंटरफ़ेस आउटपुट लागू करें
pass
सारांश
यह कार्यान्वयन दस्तावेज़ BeeAI Framework और uv पैकेज मैनेजर का उपयोग करके एक पूर्ण A2A संचार सिस्टम कैसे बनाना है, इसका प्रदर्शन करता है। सर्वर के बुद्धिमान एजेंट और क्लाइंट के इंटरैक्टिव इंटरफ़ेस के माध्यम से, हमने एक सुविधा-समृद्ध चैटबॉट सिस्टम लागू किया है। इस आर्किटेक्चर में अच्छी स्केलेबिलिटी है और आसानी से नए टूल और सुविधाएं जोड़ सकता है।
अधिक A2A Protocol उदाहरण
- A2A Multi-Agent Example: Number Guessing Game
- A2A MCP AG2 Intelligent Agent Example
- A2A + CrewAI + OpenRouter Chart Generation Agent Tutorial
- A2A JS Sample: Movie Agent
- A2A Python Sample: Github Agent
- A2A Sample: Travel Planner OpenRouter
- A2A Java Sample
- A2A Samples: Hello World Agent
- A2A Sample Methods and JSON Responses
- LlamaIndex File Chat Workflow with A2A Protocol
Related Articles
Explore more content related to this topic
Integrating A2A Protocol - Intelligent Agent Communication Solution for BeeAI Framework
Using A2A protocol instead of ACP is a better choice for BeeAI, reducing protocol fragmentation and improving ecosystem integration.
A2UI Introduction - Declarative UI Protocol for Agent-Driven Interfaces
Discover A2UI, the declarative UI protocol that enables AI agents to generate rich, interactive user interfaces. Learn how A2UI works, who it's for, how to use it, and see real-world examples from Google Opal, Gemini Enterprise, and Flutter GenUI SDK.
Agent Gateway Protocol (AGP): Practical Tutorial and Specification
Learn the Agent Gateway Protocol (AGP): what it is, problems it solves, core spec (capability announcements, intent payloads, routing and error codes), routing algorithm, and how to run a working simulation.
A2A vs ACP Protocol Comparison Analysis Report
A2A (Agent2Agent Protocol) and ACP (Agent Communication Protocol) represent two mainstream technical approaches in AI multi-agent system communication: 'cross-platform interoperability' and 'local/edge autonomy' respectively. A2A, with its powerful cross-vendor interconnection capabilities and rich task collaboration mechanisms, has become the preferred choice for cloud-based and distributed multi-agent scenarios; while ACP, with its low-latency, local-first, cloud-independent characteristics, is suitable for privacy-sensitive, bandwidth-constrained, or edge computing environments. Both protocols have their own focus in protocol design, ecosystem construction, and standardization governance, and are expected to further converge in openness in the future. Developers are advised to choose the most suitable protocol stack based on actual business needs.
Building an A2A Currency Agent with LangGraph
This guide provides a detailed explanation of how to build an A2A-compliant agent using LangGraph and the Google Gemini model. We'll walk through the Currency Agent example from the A2A Python SDK, explaining each component, the flow of data, and how the A2A protocol facilitates agent interactions.