AiChat
Отображает чат с языковой моделью
Используется для взаимодействия с большой языковой моделью. Представляет собой окно с чатом и боковой панелью для выбора истории чата при значении true свойства MultiChat. Отправка запросов и получение ответов от большой языковой модели является зоной ответственности разработчика, и выполняется обработчиком события OnRequest.
Массив параметров чатов должен иметь следующий формат:
[
{
"id": "0d536d5a",
"title": "Мой новый чат",
"count": 4,
"lastMessage": "2024-07-22T13:08:18.958155",
"parameters": {
"server": "http://llm02.pub.dmz.cifrum.local:8000",
"model": "openchat-3.5",
"filterQueryByLlm": true,
"historyLength": 0,
"retriever": "lexer",
"retrieverParams": {
"lexMode": null,
"lexK": 8
}
}
},
]
Массив истории сообщений чата должен иметь следующий формат:
{
"id0": [
{
"role": "human",
"content": "Можно ли использовать Платформу на мобильных устройствах?",
"timestamp": "2024-07-22T13:08:06.420996"
},
{
"role": "ai",
"content": "Да, Платформу можно использовать на мобильных устройствах под управленем iOS и Android.
Разработчики приложений на базе Платформы могут создавать мобильные приложения, которые можно запускать на различных мобильных устройствах.",
"timestamp": "2024-07-22T13:08:06.421111"
},
],
"id1": []
}
Пример использования
<AiChat
Chats={ [ { id: "0", title: "New chat", parameters: {} } ] }
MultiChat={true}
OnRequest={() => { const { query, chatId, parameters } = getEvent(); }}
/>