Pular para o conteúdo principal

Como Usar Modelos Personalizados no Cursor

Este guia explica como integrar e usar modelos de IA personalizados no Cursor, permitindo que você aproveite diferentes capacidades de IA para seu fluxo de trabalho de desenvolvimento.

Tipos de Modelos Suportados

O Cursor suporta várias integrações de modelos de IA:

  1. Modelos Compatíveis com OpenAI

    • Anthropic Claude
    • DeepSeek
    • Mistral
    • LLMs Locais
  2. Endpoints de API Personalizados

    • Modelos auto-hospedados
    • Serviços de API em nuvem
    • Implementações personalizadas

Configuração Básica

Configurando Modelos Personalizados

  1. Abra as Configurações do Cursor
  2. Navegue até a seção Modelos de IA
  3. Adicione nova configuração de modelo:
{
"models": {
"custom-model": {
"name": "Nome do Seu Modelo",
"apiKey": "sua-chave-api",
"baseUrl": "https://api.seu-endpoint-modelo.com/v1",
"contextLength": 8192,
"temperature": 0.7
}
}
}

Parâmetros de Configuração

ParâmetroDescriçãoPadrão
nameNome de exibição do modeloObrigatório
apiKeyChave de autenticação da APIObrigatório
baseUrlURL do endpoint da APIObrigatório
contextLengthJanela máxima de contexto4096
temperatureAleatoriedade da resposta0.7

Integração de Modelos

Modelos Compatíveis com OpenAI

{
"models": {
"custom-gpt": {
"name": "GPT Personalizado",
"apiKey": "${OPENAI_API_KEY}",
"baseUrl": "https://api.openai.com/v1",
"model": "gpt-4",
"contextLength": 8192
}
}
}

Configuração do Anthropic Claude

{
"models": {
"claude": {
"name": "Claude",
"apiKey": "${ANTHROPIC_API_KEY}",
"baseUrl": "https://api.anthropic.com/v1",
"model": "claude-2",
"contextLength": 100000
}
}
}

Configuração de Modelo Local

{
"models": {
"local-llm": {
"name": "LLM Local",
"baseUrl": "http://localhost:8000",
"contextLength": 4096,
"useDocker": true
}
}
}

Configurações Avançadas

Comportamento do Modelo

Configure o comportamento do modelo:

{
"models": {
"custom-model": {
"settings": {
"temperature": 0.7,
"topP": 0.9,
"frequencyPenalty": 0.0,
"presencePenalty": 0.0,
"stopSequences": ["```", "###"]
}
}
}
}

Formatação de Resposta

{
"models": {
"custom-model": {
"formatting": {
"trimWhitespace": true,
"removeNewlines": false,
"maxTokens": 1000
}
}
}
}

Recursos Específicos do Modelo

Completação de Código

{
"models": {
"code-model": {
"features": {
"codeCompletion": true,
"contextAware": true,
"multiFile": true
}
}
}
}

Capacidades de Chat

{
"models": {
"chat-model": {
"features": {
"chat": true,
"systemPrompts": true,
"streaming": true
}
}
}
}

Otimização de Desempenho

Configurações de Cache

{
"models": {
"custom-model": {
"cache": {
"enabled": true,
"maxSize": "1GB",
"ttl": 3600
}
}
}
}

Limitação de Taxa

{
"models": {
"custom-model": {
"rateLimit": {
"requestsPerMinute": 60,
"tokensPerMinute": 90000,
"concurrent": 5
}
}
}
}

Solução de Problemas

Problemas Comuns

  1. Problemas de Conexão

    • Verifique o endpoint da API
    • Verifique a conectividade de rede
    • Valide a chave da API
  2. Erros de Resposta

    • Verifique a compatibilidade do modelo
    • Verifique o formato da requisição
    • Revise as mensagens de erro
  3. Problemas de Desempenho

    • Otimize o comprimento do contexto
    • Ajuste as configurações de cache
    • Monitore os limites de taxa

Melhores Práticas

Segurança

  1. Gerenciamento de Chaves API

    • Use variáveis de ambiente
    • Faça rotação regular das chaves
    • Implemente controles de acesso
  2. Validação de Requisições

    • Sanitize as entradas
    • Valide as respostas
    • Trate erros adequadamente

Desempenho

  1. Otimização de Contexto

    • Minimize o tamanho do contexto
    • Limpe contexto não utilizado
    • Use prompts eficientes
  2. Gerenciamento de Recursos

    • Monitore o uso
    • Implemente cache
    • Otimize requisições

Comparação de Modelos

Matriz de Recursos

RecursoOpenAIClaudeLLM Local
Completação de Código
ChatVaria
Comprimento de Contexto8K-32K100KVaria
Velocidade de RespostaRápidaMédiaVaria

Recursos Relacionados

  • Guia de Configuração de Modelos
  • Integração de API
  • Otimização de Desempenho

Conclusão

A integração de modelos personalizados no Cursor oferece flexibilidade na escolha das capacidades de IA que melhor atendem às suas necessidades. Seguir estas diretrizes de configuração garante desempenho e confiabilidade ideais.

Artigos Relacionados

  • Configuração Avançada de Modelos
  • Guia de Integração de API
  • Otimização de Desempenho