L'API Gemini supporta la generazione di contenuti con immagini, audio, codice, strumenti e altro ancora. Per informazioni dettagliate su ciascuna di queste funzionalità, continua a leggere e dai un'occhiata al codice di esempio incentrato sulle attività o alle guide complete.
- Generare testo
- Vision
- Audio
- Contesto lungo
- Esecuzione del codice
- Modalità JSON
- Chiamata di funzioni
- Istruzioni di sistema
Metodo: model.generateContent
- Endpoint
- Parametri del percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Genera una risposta del modello in base a un input GenerateContentRequest
. Per informazioni dettagliate sull'utilizzo, consulta la guida alla generazione di testo. Le funzionalità di input variano tra i modelli, inclusi i modelli ottimizzati. Per informazioni dettagliate, consulta la guida ai modelli e la guida all'ottimizzazione.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:generateContentParametri del percorso
model
string
Obbligatorio. Il nome del Model
da utilizzare per generare il completamento.
Formato: name=models/{model}
. Il formato è models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
contents[]
object (Content
)
Obbligatorio. I contenuti della conversazione corrente con il modello.
Per le query con un solo tratto, si tratta di una singola istanza. Per le query con più turni, come chat, si tratta di un campo ripetuto che contiene la cronologia della conversazione e l'ultima richiesta.
tools[]
object (Tool
)
(Facoltativo) Un elenco di Tools
che l'Model
potrebbe utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori della conoscenza e dell'ambito del Model
. I Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzione ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
(Facoltativo) Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la Guida alle chiamate di funzioni.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
univoche per bloccare i contenuti non sicuri.
Questa operazione verrà applicata a GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non deve essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se non è presente alcun valore SafetySetting
per un determinato SafetyCategory
nell'elenco, l'API utilizzerà l'impostazione di sicurezza predefinita per la categoria in questione. Le categorie di danno HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT sono supportate. Per informazioni dettagliate sulle impostazioni di sicurezza disponibili, consulta la guida. Consulta anche le linee guida per la sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di IA.
systemInstruction
object (Content
)
(Facoltativo) Lo sviluppatore ha impostato le istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
(Facoltativo) Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
(Facoltativo) Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per la pubblicazione della previsione. Formato: cachedContents/{cachedContent}
Richiesta di esempio
Testo
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Immagine
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Audio
Python
Node.js
Conchiglia
Video
Python
Node.js
Vai
Conchiglia
Python
Conchiglia
Chat
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Cache
Python
Node.js
Modello ottimizzato
Python
Modalità JSON
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Esecuzione di codice
Python
Kotlin
Java
Chiamata di funzione
Python
Node.js
Conchiglia
Kotlin
Swift
Dart
Java
Configurazione di generazione
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Impostazioni di sicurezza
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Istruzione di sistema
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un'istanza di GenerateContentResponse
.
Metodo: models.streamGenerateContent
- Endpoint
- Parametri percorso
- Corpo della richiesta
- Corpo della risposta
- Ambiti di autorizzazione
- Richiesta di esempio
Genera una risposta in streaming dal modello a partire da un input GenerateContentRequest
.
Endpoint
post https://generativelanguage.googleapis.com/v1beta/{model=models/*}:streamGenerateContentParametri del percorso
model
string
Obbligatorio. Il nome del Model
da utilizzare per generare il completamento.
Formato: name=models/{model}
. Il formato è models/{model}
.
Corpo della richiesta
Il corpo della richiesta contiene dati con la seguente struttura:
contents[]
object (Content
)
Obbligatorio. I contenuti della conversazione corrente con il modello.
Per le query con un solo tratto, si tratta di una singola istanza. Per le query in più passaggi come la chat, si tratta di un campo ripetuto che contiene la cronologia della conversazione e l'ultima richiesta.
tools[]
object (Tool
)
(Facoltativo) Un elenco di Tools
che Model
può utilizzare per generare la risposta successiva.
Un Tool
è un frammento di codice che consente al sistema di interagire con sistemi esterni per eseguire un'azione o un insieme di azioni al di fuori della conoscenza e dell'ambito del Model
. I valori di tipo Tool
supportati sono Function
e codeExecution
. Per saperne di più, consulta le guide Chiamata di funzione ed Esecuzione del codice.
toolConfig
object (ToolConfig
)
(Facoltativo) Configurazione dello strumento per qualsiasi Tool
specificato nella richiesta. Per un esempio di utilizzo, consulta la guida alla chiamata di funzione.
safetySettings[]
object (SafetySetting
)
(Facoltativo) Un elenco di istanze SafetySetting
univoche per bloccare i contenuti non sicuri.
Questa operazione verrà applicata a GenerateContentRequest.contents
e GenerateContentResponse.candidates
. Non dovrebbe essere presente più di un'impostazione per ogni tipo di SafetyCategory
. L'API bloccherà tutti i contenuti e le risposte che non raggiungono le soglie impostate da queste impostazioni. Questo elenco sostituisce le impostazioni predefinite per ogni SafetyCategory
specificato in safetySettings. Se nell'elenco non è presente SafetySetting
per un determinato SafetyCategory
, l'API utilizzerà l'impostazione di sicurezza predefinita per quella categoria. Le categorie di danno HARM_CATEGORY_HATE_SPEECH, HARM_CATEGORY_SEXUALLY_EXPLICIT, HARM_CATEGORY_DANGEROUS_CONTENT, HARM_CATEGORY_HARASSMENT sono supportate. Consulta la guida per informazioni dettagliate sulle impostazioni di sicurezza disponibili. Consulta anche le linee guida per la sicurezza per scoprire come incorporare considerazioni sulla sicurezza nelle tue applicazioni di IA.
systemInstruction
object (Content
)
(Facoltativo) Lo Sviluppatore ha impostato istruzioni di sistema. Al momento, solo testo.
generationConfig
object (GenerationConfig
)
(Facoltativo) Opzioni di configurazione per la generazione e gli output del modello.
cachedContent
string
(Facoltativo) Il nome dei contenuti memorizzati nella cache da utilizzare come contesto per la pubblicazione della previsione. Formato: cachedContents/{cachedContent}
Richiesta di esempio
Testo
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Immagine
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Audio
Python
Conchiglia
Video
Python
Node.js
Vai
Conchiglia
Python
Conchiglia
Chat
Python
Node.js
Vai
Conchiglia
Kotlin
Swift
Dart
Java
Corpo della risposta
In caso di esito positivo, il corpo della risposta contiene un flusso di istanze GenerateContentResponse
.
GenerateContentResponse
Risposta del modello che supporta più risposte candidate.
Le valutazioni di sicurezza e i filtri dei contenuti vengono segnalati sia per il prompt in GenerateContentResponse.prompt_feedback
sia per ogni candidato in finishReason
e safetyRatings
. L'API: - Restituisce tutti i candidati richiesti o nessuno di essi - Non restituisce nessun candidato solo se si è verificato un problema con la richiesta (seleziona promptFeedback
) - Segnala feedback su ogni candidato in finishReason
e safetyRatings
.
candidates[]
object (Candidate
)
Risposte candidate del modello.
promptFeedback
object (PromptFeedback
)
Restituisce il feedback del prompt relativo ai filtri dei contenuti.
usageMetadata
object (UsageMetadata
)
Solo output. Metadati sull'utilizzo dei token delle richieste di generazione.
Rappresentazione JSON |
---|
{ "candidates": [ { object ( |
PromptFeedback
Un insieme di metadati del feedback specificato nel prompt in GenerateContentRequest.content
.
blockReason
enum (BlockReason
)
(Facoltativo) Se impostato, il prompt è stato bloccato e non vengono restituiti candidati. Riformula il prompt.
safetyRatings[]
object (SafetyRating
)
Valutazioni per la sicurezza del prompt. Esiste al massimo una classificazione per categoria.
Rappresentazione JSON |
---|
{ "blockReason": enum ( |
BlockReason
Specifica il motivo per cui la richiesta è stata bloccata.
Enum | |
---|---|
BLOCK_REASON_UNSPECIFIED |
Valore predefinito. Questo valore non è utilizzato. |
SAFETY |
Il prompt è stato bloccato per motivi di sicurezza. Controlla safetyRatings per capire quale categoria di sicurezza lo ha bloccato. |
OTHER |
Il prompt è stato bloccato per motivi sconosciuti. |
BLOCKLIST |
Il prompt è stato bloccato a causa dei termini inclusi nella lista bloccata della terminologia. |
PROHIBITED_CONTENT |
La richiesta è stata bloccata a causa di contenuti vietati. |
UsageMetadata
Metadati sull'utilizzo del token della richiesta di generazione.
promptTokenCount
integer
Numero di token nel prompt. Quando il criterio cachedContent
è impostato, si tratta comunque della dimensione effettiva totale del prompt, il che significa che include il numero di token nei contenuti memorizzati nella cache.
cachedContentTokenCount
integer
Numero di token nella parte memorizzata nella cache del prompt (i contenuti memorizzati nella cache)
candidatesTokenCount
integer
Numero totale di token in tutte le risposte candidate generate.
totalTokenCount
integer
Numero totale di token per la richiesta di generazione (prompt + candidati per la risposta).
Rappresentazione JSON |
---|
{ "promptTokenCount": integer, "cachedContentTokenCount": integer, "candidatesTokenCount": integer, "totalTokenCount": integer } |
Candidato
- Rappresentazione JSON
- FinishReason
- GroundingAttribution
- AttributionSourceId
- GroundingPassageId
- SemanticRetrieverChunk
- GroundingMetadata
- SearchEntryPoint
- GroundingChunk
- Web
- GroundingSupport
- Segmento
- RetrievalMetadata
- LogprobsResult
- TopCandidates
- Candidato
Un candidato per la risposta generato dal modello.
content
object (Content
)
Solo output. Contenuti generati restituiti dal modello.
finishReason
enum (FinishReason
)
(Facoltativo) Solo output. Il motivo per cui il modello ha smesso di generare token.
Se è vuoto, il modello non ha smesso di generare token.
safetyRatings[]
object (SafetyRating
)
Elenco di classificazioni per la sicurezza di un candidato a una risposta.
Esiste al massimo una classificazione per categoria.
citationMetadata
object (CitationMetadata
)
Solo output. Informazioni sulle citazioni per il candidato generato dal modello.
Questo campo può essere compilato con informazioni sulla recitazione per qualsiasi testo incluso nel content
. Si tratta di passaggi "recitati" da materiale protetto da copyright nei dati di addestramento dell'LLM di base.
tokenCount
integer
Solo output. Conteggio dei token per questo candidato.
groundingAttributions[]
object (GroundingAttribution
)
Solo output. Informazioni sull'attribuzione per le fonti che hanno contribuito a una risposta fondata.
Questo campo viene compilato per le chiamate GenerateAnswer
.
groundingMetadata
object (GroundingMetadata
)
Solo output. Metadati di base per il candidato.
Questo campo viene compilato per le chiamate GenerateContent
.
avgLogprobs
number
Solo output.
logprobsResult
object (LogprobsResult
)
Solo output. Punteggi di probabilità logaritmica per i token di risposta e i token principali
index
integer
Solo output. Indice del candidato nell'elenco dei candidati per la risposta.
Rappresentazione JSON |
---|
{ "content": { object ( |
FinishReason
Definisce il motivo per cui il modello ha smesso di generare token.
Enum | |
---|---|
FINISH_REASON_UNSPECIFIED |
Valore predefinito. Questo valore non è utilizzato. |
STOP |
Punto di arresto naturale del modello o sequenza di fermate fornita. |
MAX_TOKENS |
È stato raggiunto il numero massimo di token specificato nella richiesta. |
SAFETY |
I contenuti dei candidati per la risposta sono stati segnalati per motivi di sicurezza. |
RECITATION |
I contenuti della risposta candidata sono stati segnalati per motivi di recitazione. |
LANGUAGE |
I contenuti candidati per la risposta sono stati segnalati per l'utilizzo di una lingua non supportata. |
OTHER |
Motivo sconosciuto. |
BLOCKLIST |
La generazione di token è stata interrotta perché i contenuti includono termini vietati. |
PROHIBITED_CONTENT |
La generazione di token è stata interrotta perché i contenuti potrebbero essere vietati. |
SPII |
La generazione del token è stata interrotta perché i contenuti potrebbero contenere informazioni sensibili che consentono l'identificazione personale (SPII). |
MALFORMED_FUNCTION_CALL |
La chiamata di funzione generata dal modello non è valida. |
GroundingAttribution
Attribuzione per una fonte che ha contribuito a una risposta.
sourceId
object (AttributionSourceId
)
Solo output. Identificatore dell'origine che contribuisce a questa attribuzione.
content
object (Content
)
Contenuti della fonte di riferimento che costituiscono questa attribuzione.
Rappresentazione JSON |
---|
{ "sourceId": { object ( |
AttributionSourceId
Identificatore dell'origine che contribuisce a questa attribuzione.
Campo unione source
.
source
può essere solo uno dei seguenti:
groundingPassage
object (GroundingPassageId
)
Identificatore per un passaggio in linea.
semanticRetrieverChunk
object (SemanticRetrieverChunk
)
Identificatore di un Chunk
recuperato tramite Semantic Retriever.
Rappresentazione JSON |
---|
{ // Union field |
GroundingPassageId
Identificatore di una parte all'interno di un GroundingPassage
.
passageId
string
Solo output. L'ID del passaggio corrispondente al GroundingPassage.id
di GenerateAnswerRequest
.
partIndex
integer
Solo output. Indice della parte all'interno del GroundingPassage.content
di GenerateAnswerRequest
.
Rappresentazione JSON |
---|
{ "passageId": string, "partIndex": integer } |
SemanticRetrieverChunk
Identificatore di un Chunk
recuperato tramite Semantic Retriever specificato nel GenerateAnswerRequest
utilizzando SemanticRetrieverConfig
.
source
string
Solo output. Nome dell'origine corrispondente a SemanticRetrieverConfig.source
della richiesta. Esempio: corpora/123
o corpora/123/documents/abc
chunk
string
Solo output. Nome del Chunk
contenente il testo attribuito. Esempio: corpora/123/documents/abc/chunks/xyz
Rappresentazione JSON |
---|
{ "source": string, "chunk": string } |
GroundingMetadata
Metadati restituiti al client quando l'azzeramento è abilitato.
groundingChunks[]
object (GroundingChunk
)
Elenco di riferimenti a supporto recuperati dall'origine di fondazione specificata.
groundingSupports[]
object (GroundingSupport
)
Elenco di supporti di messa a terra.
webSearchQueries[]
string
Query di ricerca web per la ricerca web successiva.
searchEntryPoint
object (SearchEntryPoint
)
(Facoltativo) Voce della Ricerca Google per le ricerche web successive.
retrievalMetadata
object (RetrievalMetadata
)
Metadati relativi al recupero nel flusso di grounding.
Rappresentazione JSON |
---|
{ "groundingChunks": [ { object ( |
SearchEntryPoint
Punto di contatto della Ricerca Google.
renderedContent
string
(Facoltativo) Snippet di contenuti web che può essere incorporato in una pagina web o in una webview dell'app.
sdkBlob
string (bytes format)
(Facoltativo) JSON codificato in base64 che rappresenta un array di tuple <termine di ricerca, URL di ricerca>.
Una stringa con codifica Base64.
Rappresentazione JSON |
---|
{ "renderedContent": string, "sdkBlob": string } |
GroundingChunk
Blocco di messa a terra.
chunk_type
. Tipo di chunk. chunk_type
può essere solo uno dei seguenti:
web
object (Web
)
chunk di grounding dal web.
Rappresentazione JSON |
---|
{ // Union field |
Web
Chunk dal web.
uri
string
Riferimento URI del chunk.
title
string
Titolo del blocco.
Rappresentazione JSON |
---|
{ "uri": string, "title": string } |
GroundingSupport
Supporto per il grounding.
groundingChunkIndices[]
integer
Un elenco di indici (in "grounding_chunk") che specificano le citazioni associate alla rivendicazione. Per esempio [1,3,4] significa che grounding_chunk[1], grounding_chunk[3], grounding_chunk[4] sono il contenuto recuperato attribuito alla rivendicazione.
confidenceScores[]
number
Punteggio di affidabilità dei riferimenti all'assistenza. Intervallo da 0 a 1. 1 è il valore più attendibile. Questo elenco deve avere le stesse dimensioni di groundingChunkIndices.
segment
object (Segment
)
Segmento di contenuti a cui appartiene l'assistenza.
Rappresentazione JSON |
---|
{
"groundingChunkIndices": [
integer
],
"confidenceScores": [
number
],
"segment": {
object ( |
Segmento
Segmento dei contenuti.
partIndex
integer
Solo output. L'indice di un oggetto Part all'interno dell'oggetto Content principale.
startIndex
integer
Solo output. Indice iniziale nella parte specificata, misurato in byte. Offset dall'inizio della parte, incluso, a partire da zero.
endIndex
integer
Solo output. Indice finale nella parte specificata, misurato in byte. Offset dall'inizio della parte, esclusivo, a partire da zero.
text
string
Solo output. Il testo corrispondente al segmento della risposta.
Rappresentazione JSON |
---|
{ "partIndex": integer, "startIndex": integer, "endIndex": integer, "text": string } |
RetrievalMetadata
Metadati relativi al recupero nel flusso di messa a terra.
googleSearchDynamicRetrievalScore
number
(Facoltativo) Punteggio che indica la probabilità che le informazioni della Ricerca Google possano essere utili per rispondere al prompt. Il punteggio è compreso nell'intervallo [0, 1], dove 0 è la probabilità più bassa e 1 la più alta. Questo punteggio viene compilato solo quando sono attivati il grounding della Ricerca Google e il recupero dinamico. Verrà confrontato con la soglia per determinare se attivare la Ricerca Google.
Rappresentazione JSON |
---|
{ "googleSearchDynamicRetrievalScore": number } |
LogprobsResult
Risultato logprobs
topCandidates[]
object (TopCandidates
)
Lunghezza = numero totale di passaggi di decodifica.
chosenCandidates[]
object (Candidate
)
Lunghezza = numero totale di passaggi di decodifica. I candidati scelti possono essere o meno in topCandidates.
Rappresentazione JSON |
---|
{ "topCandidates": [ { object ( |
TopCandidates
Candidati con le migliori probabilità di registrazione in ogni fase di decodifica.
candidates[]
object (Candidate
)
Ordinata per probabilità di log in ordine decrescente.
Rappresentazione JSON |
---|
{
"candidates": [
{
object ( |
Candidato
Candidato per il token e il punteggio logprobs.
token
string
Il valore stringa del token del candidato.
tokenId
integer
Il valore dell'ID token del candidato.
logProbability
number
La probabilità logaritmica del candidato.
Rappresentazione JSON |
---|
{ "token": string, "tokenId": integer, "logProbability": number } |
CitationMetadata
Una raccolta di attribuzioni delle fonti per un contenuto.
citationSources[]
object (CitationSource
)
Citazioni delle fonti per una risposta specifica.
Rappresentazione JSON |
---|
{
"citationSources": [
{
object ( |
CitationSource
Una citazione a una fonte per una parte di una risposta specifica.
startIndex
integer
(Facoltativo) Inizio del segmento della risposta attribuito a questa sorgente.
L'indice indica l'inizio del segmento, misurato in byte.
endIndex
integer
(Facoltativo) Fine del segmento attribuito (escluso).
uri
string
(Facoltativo) URI attribuito come origine per una parte del testo.
license
string
(Facoltativo) Licenza per il progetto GitHub attribuito come origine del segmento.
Le informazioni sulla licenza sono obbligatorie per le citazioni di codici.
Rappresentazione JSON |
---|
{ "startIndex": integer, "endIndex": integer, "uri": string, "license": string } |
GenerationConfig
Opzioni di configurazione per la generazione e gli output del modello. Non tutti i parametri sono configurabili per ogni modello.
stopSequences[]
string
(Facoltativo) L'insieme di sequenze di caratteri (fino a 5) che interrompe la generazione dell'output. Se specificato, l'API si arresta alla prima apparizione di un stop_sequence
. La sequenza di fermate non verrà inclusa nella risposta.
responseMimeType
string
(Facoltativo) Tipo MIME del testo candidato generato. I tipi MIME supportati sono: text/plain
: (predefinito) Output di testo. application/json
: risposta JSON nei candidati di risposta. text/x.enum
: ENUM come risposta stringa nelle risposte candidate. Consulta la documentazione per un elenco di tutti i tipi MIME di testo supportati.
responseSchema
object (Schema
)
(Facoltativo) Schema di output del testo candidato generato. Gli schemi devono essere un sottoinsieme dello schema OpenAPI e possono essere oggetti, elementi primitivi o array.
Se impostato, deve essere impostato anche un responseMimeType
compatibile. Tipi MIME compatibili: application/json
: schema per la risposta JSON. Per saperne di più, consulta la guida alla generazione di testo JSON.
candidateCount
integer
(Facoltativo) Numero di risposte generate da restituire.
Al momento, questo valore può essere impostato solo su 1. Se non viene impostato, il valore predefinito è 1.
maxOutputTokens
integer
(Facoltativo) Il numero massimo di token da includere in una risposta candidata.
Nota: il valore predefinito varia a seconda del modello; controlla l'attributo Model.output_token_limit
di Model
restituito dalla funzione getModel
.
temperature
number
(Facoltativo) Controlla la casualità dell'output.
Nota: il valore predefinito varia a seconda del modello; controlla l'attributo Model.temperature
di Model
restituito dalla funzione getModel
.
I valori possono essere compresi tra [0,0, 2,0].
topP
number
(Facoltativo) La probabilità cumulativa massima dei token da considerare durante il campionamento.
Il modello utilizza il campionamento combinato Top-k e Top-p (nucleo).
I token vengono ordinati in base alle probabilità assegnate in modo da considerare solo i token più probabili. Il campionamento Top-k limita direttamente il numero massimo di token da considerare, mentre il campionamento Nucleus limita il numero di token in base alla probabilità cumulativa.
Nota: il valore predefinito varia in base a Model
ed è specificato dall'attributo Model.top_p
restituito dalla funzione getModel
. Un attributo topK
vuoto indica che il modello non applica il campionamento top-k e non consente di impostare topK
sulle richieste.
topK
integer
(Facoltativo) Il numero massimo di token da considerare durante il campionamento.
I modelli Gemini utilizzano il campionamento Top-p (nucleo) o una combinazione di campionamento Top-k e nucleo. Il campionamento Top-k prende in considerazione l'insieme di topK
token più probabili. I modelli in esecuzione con il campionamento del nucleo non consentono l'impostazione di topK.
Nota: il valore predefinito varia in base a Model
ed è specificato dall'attributo Model.top_p
restituito dalla funzione getModel
. Un attributo topK
vuoto indica che il modello non applica il campionamento top-k e non consente di impostare topK
sulle richieste.
presencePenalty
number
(Facoltativo) Penalità di presenza applicata ai logprob del token successivo se il token è già stato rilevato nella risposta.
Questa penalità è on/off binaria e non dipende dal numero di volte in cui viene utilizzato il token (dopo la prima). Utilizza frequencyPenalty
per una penalità che aumenta con ogni utilizzo.
Una penalità positiva scoraggia l'uso di token già utilizzati nella risposta, aumentando il vocabolario.
Una penalità negativa incoraggerà l'uso di token già utilizzati nella risposta, diminuendo il vocabolario.
frequencyPenalty
number
(Facoltativo) Penale di frequenza applicata ai logprob del token successivo, moltiplicata per il numero di volte in cui ogni token è stato visto nelle risposte fino a questo momento.
Una penalità positiva scoraggia l'uso di token già utilizzati, in proporzione al numero di volte in cui sono stati utilizzati: più un token viene utilizzato, più è difficile per il modello utilizzarlo di nuovo aumentando il vocabolario delle risposte.
Attenzione: una penalità negativa incoraggerà il modello a riutilizzare i token in proporzione al numero di volte in cui sono stati utilizzati. Piccoli valori negativi ridurranno il vocabolario di una risposta. Valori negativi più elevati causeranno l'inizio della ripetizione di un token comune da parte del modello fino al raggiungimento del limite di maxOutputTokens
: "...the the the the the...".
responseLogprobs
boolean
(Facoltativo) Se true, esporta i risultati di logprobs nella risposta.
logprobs
integer
(Facoltativo) Valido solo se responseLogprobs=True
. Imposta il numero di logprob più elevati da restituire in ogni passaggio di decodifica in Candidate.logprobs_result
.
Rappresentazione JSON |
---|
{
"stopSequences": [
string
],
"responseMimeType": string,
"responseSchema": {
object ( |
HarmCategory
La categoria di una classificazione.
Queste categorie coprono vari tipi di danni che gli sviluppatori potrebbero voler correggere.
Enum | |
---|---|
HARM_CATEGORY_UNSPECIFIED |
Categoria non specificata. |
HARM_CATEGORY_DEROGATORY |
PaLM: commenti negativi o dannosi che hanno come target l'identità e/o l'attributo protetto. |
HARM_CATEGORY_TOXICITY |
PaLM: contenuti maleducati, irrispettosi o volgari. |
HARM_CATEGORY_VIOLENCE |
PaLM: descrive scenari che raffigurano violenza contro un individuo o un gruppo o descrizioni generali di spargimenti di sangue. |
HARM_CATEGORY_SEXUAL |
PaLM: contiene riferimenti ad atti sessuali o ad altri contenuti osceni. |
HARM_CATEGORY_MEDICAL |
PaLM: promuove consigli medici non verificati. |
HARM_CATEGORY_DANGEROUS |
PaLM: contenuti pericolosi che promuovono, favoriscono o incoraggiano azioni dannose. |
HARM_CATEGORY_HARASSMENT |
Gemini - Contenuti molesti. |
HARM_CATEGORY_HATE_SPEECH |
Gemini: incitamento all'odio e contenuti. |
HARM_CATEGORY_SEXUALLY_EXPLICIT |
Gemini: contenuti sessualmente espliciti. |
HARM_CATEGORY_DANGEROUS_CONTENT |
Gemini: contenuti pericolosi. |
HARM_CATEGORY_CIVIC_INTEGRITY |
Gemini: contenuti che potrebbero essere utilizzati per danneggiare l'integrità civica. |
SafetyRating
Valutazione di sicurezza per un contenuto.
La valutazione di sicurezza contiene la categoria di danno e il livello di probabilità di danno in quella categoria per un determinato contenuto. I contenuti vengono classificati per motivi di sicurezza in una serie di categorie di danno e la probabilità della classificazione del danno è inclusa qui.
category
enum (HarmCategory
)
Obbligatorio. La categoria di questa valutazione.
probability
enum (HarmProbability
)
Obbligatorio. La probabilità di danni per questi contenuti.
blocked
boolean
Questi contenuti sono stati bloccati a causa di questa classificazione?
Rappresentazione JSON |
---|
{ "category": enum ( |
HarmProbability
La probabilità che un determinato contenuto sia dannoso.
Il sistema di classificazione dà la probabilità che i contenuti non siano sicuri. Ciò non indica la gravità del danno causato da un contenuto.
Enum | |
---|---|
HARM_PROBABILITY_UNSPECIFIED |
La probabilità non è specificata. |
NEGLIGIBLE |
I contenuti hanno una probabilità trascurabile di non essere sicuri. |
LOW |
I contenuti hanno scarsa probabilità di non essere sicuri. |
MEDIUM |
I contenuti hanno una probabilità media di non essere sicuri. |
HIGH |
I contenuti hanno un'alta probabilità di non essere sicuri. |
SafetySetting
Impostazione di sicurezza che influisce sul comportamento di blocco per motivi di sicurezza.
L'applicazione di un'impostazione di sicurezza per una categoria modifica la probabilità consentita di blocco dei contenuti.
category
enum (HarmCategory
)
Obbligatorio. La categoria per questa impostazione.
threshold
enum (HarmBlockThreshold
)
Obbligatorio. Controlla la soglia di probabilità in cui il danno è bloccato.
Rappresentazione JSON |
---|
{ "category": enum ( |
HarmBlockThreshold
Blocco in base alla probabilità di danno specificata e oltre.
Enum | |
---|---|
HARM_BLOCK_THRESHOLD_UNSPECIFIED |
La soglia non è specificata. |
BLOCK_LOW_AND_ABOVE |
I contenuti con NEGLIGIBLE saranno consentiti. |
BLOCK_MEDIUM_AND_ABOVE |
I contenuti con NEGLIGIBLE e LOW saranno consentiti. |
BLOCK_ONLY_HIGH |
I contenuti con NEGLIGIBLE, LOW e MEDIUM saranno consentiti. |
BLOCK_NONE |
Tutti i contenuti saranno consentiti. |
OFF |
Disattiva il filtro di sicurezza. |