Mode Batch di API Gemini: Memproses lebih banyak dengan biaya lebih sedikit

7 JULI 2025
Lucia Loher Product Manager
Vishal Dharmadhikari Product Solutions Engineer

Model Gemini sekarang tersedia dalam Mode Batch


Hari ini, kami dengan bangga memperkenalkan mode batch pada API Gemini, endpoint asinkron baru yang dirancang khusus untuk beban kerja dengan throughput tinggi dan tidak kritis terhadap latensi. Mode Batch API Gemini memungkinkan Anda mengirimkan tugas besar, mengurangi beban penjadwalan dan pemrosesan, serta mengambil hasil dalam waktu 24 jam—semuanya dengan diskon 50% dibandingkan dengan API sinkron kami.


Memproses lebih banyak dengan biaya lebih sedikit

Mode Batch adalah alat yang sempurna untuk tugas apa pun yang datanya sudah siap sejak awal dan tidak membutuhkan respons langsung. Dengan memisahkan tugas besar ini dari traffic waktu nyata, Anda mendapatkan tiga manfaat penting:

  • Hemat biaya: Harga tugas batch 50% lebih rendah dari tarif standar untuk model tertentu

  • Throughput lebih tinggi: Mode Batch bahkan memiliki batas laju yang lebih tinggi

  • Panggilan API yang mudah: Tidak perlu mengelola antrean sisi klien yang rumit atau mencoba ulang logika. Hasil yang tersedia akan ditampilkan dalam waktu 24 jam.


Alur kerja sederhana untuk tugas besar

Kami telah merancang API agar sederhana dan intuitif. Anda mengemas semua permintaan ke dalam satu file, mengirimkannya, dan mengambil hasil setelah tugas selesai. Berikut ini beberapa cara developer memanfaatkan Mode Batch untuk tugas-tugas saat ini:

  • Pembuatan dan pemrosesan konten massal: Berspesialisasi dalam pemahaman video yang mendalam, Reforged Labs menggunakan Gemini 2.5 Pro untuk menganalisis dan melabeli sejumlah besar iklan video setiap bulan. Penerapan Mode Batch telah merevolusi operasi mereka dengan memangkas biaya secara signifikan, mempercepat pengiriman kepada klien, dan memungkinkan skalabilitas besar yang dibutuhkan untuk insight pasar yang bermakna.
Bulk content generation and processing
  • Evaluasi model: Vals AI menetapkan tolok ukur model dasar pada kasus penggunaan di dunia nyata, termasuk di bidang hukum, keuangan, pajak, dan layanan kesehatan. Mereka menggunakan Mode Batch untuk mengirimkan kueri evaluasi bervolume besar tanpa dibatasi oleh batas laju.
Model evaluations

Mulailah hanya dengan beberapa baris kode.

Anda dapat mulai menggunakan Mode Batch hari ini dengan Google GenAI Python SDK:

# Create a JSONL that contains these lines:
# {"key": "request_1", "request": {"contents": [{"parts": [{"text": "Explain how AI works in a few words"}]}]}},
# {"key": "request_2", "request": {"contents": [{"parts": [{"text": "Explain how quantum computing works in a few words"}]}]}}
 
uploaded_batch_requests = client.files.upload(file="batch_requests.json")
 
batch_job = client.batches.create(
    model="gemini-2.5-flash",
    src=uploaded_batch_requests.name,
    config={
        'display_name': "batch_job-1",
    },
)
 
print(f"Created batch job: {batch_job.name}")
 
# Wait for up to 24 hours
 
if batch_job.state.name == 'JOB_STATE_SUCCEEDED':
    result_file_name = batch_job.dest.file_name
    file_content_bytes = client.files.download(file=result_file_name)
    file_content = file_content_bytes.decode('utf-8')
 
    for line in file_content.splitlines():
      print(line)
Python

Untuk mempelajari lebih lanjut, lihat dokumentasi resmi dan halaman harga.


Kami meluncurkan Mode Batch untuk API Gemini hari ini dan besok untuk semua pengguna. Ini hanyalah awal untuk pemrosesan batch, dan kami sedang berupaya keras untuk memperluas kemampuannya. Nantikan opsi yang lebih mantap dan fleksibel!