Selamat datang di berita baik untuk para pengembang AI!

OpenAI, perusahaan di balik pengembangan kecerdasan buatan mutakhir, baru saja mengumumkan pengurangan harga yang signifikan untuk model bahasa besar (large language model - LLM) unggulannya, yaitu o3. Harga baru ini turun hingga 80% untuk token input dan output, memberikan kesempatan baru bagi banyak pengembang untuk mengeksplorasi dan memanfaatkan kemampuan kecerdasan buatan dalam proyek mereka.

Untuk memahami lebih jauh, token adalah string numerik individual yang digunakan oleh LLM untuk merepresentasikan kata, frasa, dan berbagai jenis konten lainnya. Token ini menjadi bahasa asli bagi LLM, merefleksikan konstruksi semantik yang telah dipelajari melalui proses pelatihan. Sebagian besar penyedia LLM menawarkan model mereka melalui antarmuka pemrograman aplikasi atau API, yang memungkinkan pengembang untuk membangun aplikasi atau menghubungkan aplikasi eksternal, biasanya dengan biaya yang dikenakan per juta token.

Perubahan harga ini menempatkan model o3 sebagai opsi yang lebih terjangkau bagi para pengembang yang mencari kemampuan penalaran tingkat lanjut. Langkah ini juga memposisikan OpenAI dalam persaingan harga yang lebih langsung dengan model-model rival seperti Gemini 2.5 Pro dari Google DeepMind, Claude Opus 4 dari Anthropic, dan rangkaian penalaran dari DeepSeek.

Sam Altman, CEO OpenAI, mengonfirmasi perubahan ini melalui sebuah posting di X, menekankan bahwa tujuan dari harga baru ini adalah untuk mendorong eksperimen yang lebih luas. Dalam tulisannya, Altman berkata, “kami telah menurunkan harga o3 sebesar 80%! Kami sangat bersemangat untuk melihat apa yang orang akan lakukan dengan ini. Anda juga pasti akan senang dengan harga o3-pro untuk performa yang lebih baik :)”

Sekarang, biaya untuk menggunakan o3 adalah $2 per satu juta token input dan $8 per satu juta token output. Selain itu, ada diskon tambahan sebesar $0,50 per juta token jika pengguna memasukkan informasi yang telah “cached,” atau disimpan dan identik dengan yang diberikan sebelumnya. Ini adalah penurunan signifikan dari tarif sebelumnya, yaitu $10 untuk input dan $40 untuk output, sebagaimana yang diungkapkan oleh peneliti OpenAI, Noam Brown, di X.

Ray Fernando, seorang pengembang dan pengguna awal model ini, merayakan penurunan harga tersebut dengan menulis “LFG!” yang merupakan singkatan dari “let’s fucking go!”

Sikap optimis ini mencerminkan semakin banyaknya antusiasme di kalangan para pembangun yang ingin memperluas proyek mereka tanpa harus menghadapi biaya akses model yang tinggi.

Pergeseran harga ini datang pada saat ketika penyedia AI bersaing lebih agresif dalam hal performa dan keterjangkauan. Sebagai perbandingan, Gemini 2.5 Pro dari Google DeepMind mengenakan biaya antara $1,25 hingga $2,50 untuk input tergantung pada ukuran prompt, dan $10 hingga $15 untuk output. Meskipun integrasinya dengan Google Search menawarkan fungsi tambahan, layanan ini juga memiliki biayanya sendiri dengan gratis untuk 1.500 permintaan pertama per hari, kemudian dikenakan biaya $35 per seribu permintaan.

Sementara itu, Claude Opus 4, yang dipasarkan oleh Anthropic sebagai model yang dioptimalkan untuk tugas-tugas kompleks, adalah yang termahal di antara kelompok ini, mengenakan biaya $15 per juta token input dan $75 untuk output. Layanan baca dan tulis untuk caching prompt dikenakan biaya masing-masing $1,50 dan $18,75. Namun, pengguna dapat mengunci diskon 50% dengan pemrosesan batch.

Model-model dari DeepSeek, terutama DeepSeek-Reasoner dan DeepSeek-Chat, menawarkan harga yang sangat kompetitif. Token input berkisar antara $0,07 hingga $0,55 tergantung pada caching dan waktu, sementara output berkisar antara $1,10 hingga $2,19. Tarif diskon selama jam-jam sepi menjadikan harga bahkan lebih rendah, hingga $0,035 untuk input yang di-cache.

Dengan perbandingan semacam ini, penyesuaian harga OpenAI dapat memberikan dampak yang signifikan dalam ruang ekonomi LLM. Model input, cached input, dan output dari berbagai penyedia dapat dilihat dalam tabel perbandingan di bawah ini:

Perbandingan Model dan Biaya:

Model Input Cached Input Output Diskon
OpenAI o3 $2.00 (dari $10.00) $0.50 $8.00 (dari $40.00) Flex Processing: $5 / $20
Gemini 2.5 Pro $1.25 – $2.50 $0.31 – $0.625 $10.00 – $15.00 Tarif lebih tinggi berlaku untuk prompt >200k token
Claude Opus 4 $15.00 $1.50 (baca) / $18.75 (tulis) $75.00 50% off dengan pemrosesan batch
DeepSeek-Chat $0.07 (hit)$0.27 (miss) - $1.10 50% off selama jam-jam sepi
DeepSeek-Reasoner $0.14 (hit)$0.55 (miss) - $2.19 75% off selama jam-jam sepi

Selain itu, kelompok penelitian dan perbandingan model AI independen, Artificial Analysis, telah melakukan serangkaian tes benchmarking pada o3 yang baru dan menemukan bahwa untuk menyelesaikan semua tugas tersebut, diperlukan biaya $390, dibandingkan dengan $971 untuk Gemini 2.5 Pro dan $342 untuk Claude 4 Sonnet.

Langkah harga OpenAI ini tidak hanya mempersempit jarak dengan model-model ultra-low-cost seperti DeepSeek, tetapi juga memberikan tekanan ke bawah terhadap penawaran harga tinggi seperti Claude Opus dan Gemini Pro. Berbeda dengan Claude atau Gemini, o3 sekarang juga menawarkan mode flex untuk pemrosesan sinkron yang dikenakan biaya $5 untuk input dan $20 untuk output per juta token. Ini memberikan pengembang lebih banyak kontrol atas biaya komputasi dan latensi tergantung pada jenis beban kerja yang dihadapi.

Saat ini, o3 tersedia melalui API dan Playground OpenAI. Pengguna dengan saldo serendah beberapa dolar kini dapat mengeksplorasi kemampuan penuh model ini, memungkinkan prototyping dan penerapan dengan lebih sedikit hambatan finansial.

Langkah ini bisa sangat bermanfaat bagi startup, tim riset, dan pengembang individu yang sebelumnya merasa akses model tingkat tinggi sangat mahal. Dengan secara substansial menurunkan biaya model penalaran paling canggihnya, OpenAI menunjukkan tren yang lebih luas di ruang AI generatif: performa premium semakin terjangkau, dan para pengembang kini memiliki semakin banyak pilihan yang layak dan dapat diskalakan secara ekonomis.