Press ESC to close

Journey to AI Engineer — Part 4: Mulai dari Mana? Prompt Engineer Dulu!

Kalau kamu sudah ngerti dasar-dasar Large Language Model (LLM), paham dikit soal Python, dan udah pernah main-main sama API kayak OpenAI, HuggingFace, atau Gemini tapi masih mikir:

“Lah, abis ini ngapain ya biar beneran bisa disebut AI Engineer?”

Tenang… kamu nggak sendiri 😄

Tanya sana-sini, ternyata jawabannya sederhana

Beberapa waktu lalu saya sempat ngobrol dengan beberapa orang yang sudah kerja di bidang AI dan ML.
Dan hampir semuanya bilang hal yang sama:

“Kalau mau cepat nyemplung ke dunia AI real-world, mulai aja dari jadi Prompt Engineer dulu.”

(Anonymous – 2024)

Awalnya saya agak skeptis juga. Masa iya, cukup dengan mainin kata-kata bisa nyebut diri “engineer”?
Tapi setelah nyoba sendiri, ternyata masuk akal banget.

Meskipun ada juga yang bilang, “kalau basic-mu udah kuat, langsung aja nyemplung ke fine-tune“. Tapi karna basic saya yang masih terbatas, saya akhirnya coba learning pelan-pelan dulu, tidak grusa-grusu.

Prompt Engineer itu bukan cuma “nanya ke ChatGPT”

Banyak orang ngira, jadi Prompt Engineer itu cuma tugasnya ngetik pertanyaan yang panjang doank. Padahal nggak sesederhana itu.

Prompt itu semacam jembatan dan interface antara manusia dan model AI, agar model bisa memahami kita berdasarkan konteks, data dan pengetahuan yang ada di model tersebut.
(Mkhuda – 2025)

Kalau kamu bisa mendesain prompt yang bagus, maka model LLM seakan-akan bakal nurut banget sama kamu. Setidaknya gini, menjadi prompt engineer itu bakalan:

  • bisa bikin model menjawab tepat sesuai konteks,
  • bisa memproses data tambahan dari luar (context injection),
  • dan bisa dipakai ulang (reusable template). Maksudnya prompt bisa dipakai di beberapa model di kategori yang sama.

Jika kamu bener-bener udah mahir jadi Prompt Engineer. maka kamu udah setengah jalan jadi AI Engineer yang efisien. Eh beneran? Bukan, ini cuma opini pribadi saja. 😅

Karena di dunia nyata, menurut pribadi saya, sebenarnya bisnis itu nggak butuh model baru setiap hari. Yang mereka butuhkan adalah solusi cepat, stabil, dan yang terakhir, hemat biaya.

(Opini pribadi)

Kalian yang suka baca, mungkin coba mampir untuk lihat paper ini: A Reality check of the benefits of LLM in business

Kebanyakan bisnis AI bisa diselesaikan tanpa fine-tuning

Riset tentang prompt engineering

Sumber: ScienceDirect

Saya dapet insight menarik waktu dari sebuah cerita teman yang sudah saya anggap senior di dunia AI Engineer. Dia bercerita gini:

Kliennya pengen sistem tanya-jawab otomatis berbasis dokumen internal.
Awalnya mereka minta model custom yang di-fine-tune, padahal dataset-nya aja belum siap 😅

Akhirnya saya tawarkan alternatif:

  1. Gunakan model yang sudah ada (GPT atau Llama 3),
  2. Lalu pakai context retrieval lewat teknik RAG (Retrieval-Augmented Generation),
  3. Dan desain prompt-nya sebaik mungkin untuk meniru gaya perusahaan.

Setelah kurang lebih 1 bulan development, akhirnya produk selesai meski masih tahap pengujian. Klien merasa senang dengan progres. Setelah berlanjut ke tahap finalisasi, sudah production grade hanya dalam waktu kurang dari 2 bulan.

Moral cerita dari kasus tersebut yang dapat diambil adalah:

Teknik RAG bisa dijadikan metode fast iteration. Dimana ketika bisnis mengalami perkembangan yang berubah-ubah, dan butuh penyesuaian model secara cepat.

Dibandingkan dengan fokus ke fine-tuning, yang jika dilihat dari metode akan memakan banyak waktu, biaya hingga tenaga.

Sedikit tips untuk yang ingin mulai Prompt Engineering

Kalau kamu mau mulai, ini urutan belajarnya biar nggak muter-muter:

  1. Pahami perilaku model
    Mainkan model-model gratis seperti ChatGPT, Claude, Gemini, dan Llama. Catat perbedaan gayanya dalam menjawab. Ini seperti ngenalin karakter tiap teman ngobrol.
  2. Belajar struktur prompt yang rapi
    Coba teknik seperti:
    Role Prompting (Model diberi peran, misal: “Kamu seorang editor ahli…”)
    One-Shot/Few-shot Prompting (Model dikasih contoh, “Jika kamu tidak menemukan jawaban, balas dengan permintaan halus”, dsb)
    Chain-of-Thought (minta model berpikir langkah demi langkah)
    Output Format Control (Paragraf, Narasi Video, JSON, markdown, HTML, dsb.)

Intinya, kalian setidaknya memang harus benar-benar mengerti kebiasaan setiap model. Apalagi jika model tersebut adalah model-model lightweight (ringan), seperti Mistral 7b atau Gemma 7b.

Pada kasus itu, akan sering terjadi banyak kasus model yang berhalusinasi, meskipun diberi prompting yang kompleks. Alasannya karna keterbatasan data.

Next Step

Kalau prompt udah kamu kuasai, langkah berikutnya adalah belajar RAG lebih dalam (Semoga di Part 5 nanti saya bisa bikin).

Baru setelah itu kalau ada kebutuhan dan data yang cukup, suatu saat saya akan eksplor mengenai fine-tuning.

Jadi kesimpulannya:
Kalau kamu udah bisa Python dan paham dasar LLM, mulailah dengan jadi Prompt Engineer.
Itu adalah jalan tercepat dan paling realistis menuju dunia AI praktis.

Terima kasih banyak! Stay tuned!

Muhammad K Huda

A non exhausted blogger person within fullstack engineer (spicy food), open source religion, self-taught driver and maybe you know or don't like it. Simply says, Hello from Me!

Leave a Reply

Your email address will not be published. Required fields are marked *

Cek untuk notifikasi e-mail jika komentar dibalas.

This site uses Akismet to reduce spam. Learn how your comment data is processed.