Lewati ke konten utama

Panduan Setup Open WebUI: Jalankan Antarmuka Bergaya ChatGPT di Mesin Anda

Pelajari cara memasang dan menggunakan Open WebUI untuk menjalankan model AI lokal dengan antarmuka bergaya ChatGPT. Termasuk langkah setup, kiat konfigurasi, dan kasus penggunaan nyata.
Diperbarui 17 Apr 2026  · 13 mnt baca

Ragu mengirim prompt Anda ke server cloud? Keamanan adalah kekhawatiran besar bagi banyak orang—dan itu wajar.

Anda memilih ChatGPT atau Claude, mengetik prompt, lalu permintaan dikirim ke infrastruktur milik pihak lain. Untuk sebagian besar kasus, itu tidak masalah. Namun jika Anda bekerja dengan data sensitif atau kode proprieter, itu bisa menjadi risiko keamanan. Selain itu, antarmuka cloud membatasi Anda pada model tertentu, batas kecepatan, dan paket harga.

Open WebUI adalah antarmuka berbasis browser yang di-host sendiri untuk berinteraksi dengan LLM. Antarmukanya mirip UI ChatGPT, namun berjalan di mesin Anda sendiri. Ia terhubung ke Ollama, API yang kompatibel dengan OpenAI, dan model lokal, sehingga data Anda tetap berada di tempat yang Anda tentukan.

Dalam artikel ini, saya akan memandu Anda memasang Open WebUI dengan Docker, menghubungkannya ke model lokal, dan menggunakannya untuk tugas nyata seperti chat dan pembuatan kode.

Apa Itu Open WebUI dan Cara Kerjanya

Open WebUI adalah antarmuka chat berbasis browser untuk berinteraksi dengan LLM—mirip ChatGPT, tetapi berjalan di mesin Anda sendiri.

Arsitekturnya sesederhana mungkin. Ada UI frontend yang Anda akses di browser, dan backend yang terhubung ke penyedia model seperti Ollama atau API apa pun yang kompatibel dengan OpenAI.

Jadi, Open WebUI tidak menjalankan model—ia hanya berkomunikasi dengan backend mana pun yang Anda arahkan.

Anggap saja ini sebagai pintu depan universal untuk setup AI lokal Anda.

Artinya, Anda bisa mengganti backend model tanpa mengubah antarmuka, dan Anda bisa menjalankan antarmuka di satu mesin sementara model berjalan di mesin lain.

Dengan Open WebUI, Anda mendapatkan:

  • Antarmuka chat untuk mengirim prompt dan membaca respons
  • Unggah file untuk memasukkan dokumen ke dalam percakapan Anda
  • Dukungan multi-model untuk berganti model dalam UI yang sama
  • Riwayat percakapan agar Anda dapat meninjau dan melanjutkan sesi sebelumnya

Jika Anda pernah menggunakan ChatGPT atau Claude, antarmukanya akan terasa familiar. Perbedaannya ada pada apa yang berjalan di belakangnya. Mari kita bahas.

Cara Memasang Open WebUI (Metode Docker)

Docker adalah cara tercepat untuk menjalankan Open WebUI, dan juga menjalankannya dalam isolasi penuh.

Prasyarat

Anda perlu menginstal Docker di mesin Anda. Jika belum, unduh dari situs resmi Docker.

Ollama bersifat opsional pada tahap ini. Jika Anda ingin langsung menghubungkan Open WebUI ke model lokal, pasang Ollama terlebih dahulu dan tarik setidaknya satu model. Jika Anda hanya ingin menjalankan antarmuka dan menghubungkannya nanti, lewati langkah ini untuk sekarang.

Langkah instalasi

Jalankan perintah ini untuk menarik image Open WebUI dan memulai container:

docker run -d \
  -p 3000:8080 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

Open WebUI image being downloaded

Image Open WebUI sedang diunduh

Berikut fungsi masing-masing flag:

  • d menjalankan container di latar belakang

  • p 3000:8080 memetakan port 8080 di dalam container ke port 3000 di mesin Anda

  • v open-webui:/app/backend/data membuat volume Docker untuk mempertahankan data Anda—percakapan, pengaturan, dan file yang diunggah tetap ada setelah container dimulai ulang

  • -restart always memulai ulang container jika berhenti atau saat mesin Anda reboot

  • -name open-webui memberi nama yang mudah dibaca pada container agar bisa dirujuk nanti

Peluncuran pertama

Setelah container berjalan, buka browser Anda dan kunjungi http://localhost:3000.

Pada kunjungan pertama, Open WebUI akan meminta Anda membuat akun admin. Isi nama, email, dan kata sandi Anda.

Open WebUI setup page

Halaman setup Open WebUI

Setelah itu, Anda masuk. Antarmuka akan dimuat dan Anda siap menghubungkan model.

Open WebUI home page

Halaman beranda Open WebUI

Cara Menghubungkan Open WebUI ke Ollama

Ollama adalah backend yang paling umum untuk Open WebUI karena membuat menjalankan model lokal menjadi sangat sederhana—satu perintah untuk menarik model, satu perintah lagi untuk menjalankannya.

Sebelum menghubungkan apa pun, pastikan Ollama benar-benar berjalan. Buka terminal dan periksa:

ollama serve

Checking of Ollama is running

Memeriksa apakah Ollama berjalan

Jika Ollama sudah berjalan sebagai layanan latar belakang, Anda akan melihat pesan bahwa alamat sudah digunakan. Tidak masalah—artinya layanan aktif.

Selanjutnya, pastikan Anda sudah menarik setidaknya satu model. Jalankan:

ollama list

Available Ollama models

Model Ollama yang tersedia

Jika daftarnya kosong, tarik model terlebih dahulu. Mistral adalah titik awal yang baik:

ollama pull mistral

Pulling Mistral model

Menarik model Mistral

Mistral adalah model serbaguna yang andal dan berjalan baik pada perangkat keras konsumen.

Menghubungkan Open WebUI ke Ollama

Sekarang buka Open WebUI di browser Anda di http://localhost:3000. Buka Settings - Connections dan periksa URL API Ollama. Secara default disetel ke http://host.docker.internal:11434.

Setting up Ollama API URL

Menyetel URL API Ollama

Ini berfungsi di Mac dan Windows dengan Docker Desktop. Di Linux, ganti host.docker.internal dengan IP host Anda yang sebenarnya:

http://<your-ip-address>:11434

Klik Save dan muat ulang halaman. Jika koneksi berhasil, model Ollama Anda akan muncul di pemilih model di bagian atas jendela chat. Pilih salah satu dan Anda siap mulai mengobrol.

Available models

Model yang tersedia

Jika tidak ada model yang muncul, periksa kembali apakah Ollama berjalan dan URL API sudah benar untuk OS Anda.

Cara Menggunakan Open WebUI untuk Chat dan Koding

Setelah model terhubung, menggunakan Open WebUI terasa mirip dengan ChatGPT—tetapi dengan beberapa kontrol tambahan yang perlu diketahui.

Chat dasar

Di bagian atas jendela chat, Anda akan melihat dropdown pemilih model. Klik dan pilih model yang ingin Anda gunakan. Jika Anda menghubungkan beberapa backend, semua model yang tersedia akan muncul di sini—model Ollama, model API, semuanya dalam satu daftar.

Ketik prompt Anda di kolom input di bagian bawah dan tekan Enter. Respons mengalir secara real time, jadi Anda tidak perlu menunggu keluaran penuh untuk mulai membaca.

Basic chat example

Contoh chat dasar

Setiap percakapan disimpan di bilah sisi kiri. Anda dapat mengganti nama percakapan agar tetap rapi, atau menghapus yang tidak diperlukan. Klik percakapan sebelumnya untuk melanjutkan dari titik terakhir.

Tugas koding

Open WebUI bekerja baik untuk pembuatan dan debug kode. Cukup jelaskan kebutuhan Anda dengan bahasa natural dan model akan mengembalikan blok kode yang bisa Anda salin.

Coding example

Contoh koding

Untuk debugging, tempelkan kode dan pesan error ke prompt. Jadilah spesifik—sertakan keluaran error lengkap, bukan hanya jenis error. Semakin banyak konteks yang Anda berikan, semakin berguna responsnya.

Debugging example

Contoh debugging

Untuk tugas multi-langkah, jangan coba memasukkan semuanya dalam satu prompt. Pecah menjadi beberapa bagian. Minta model menulis fungsi, lalu menambahkan penanganan error, kemudian menulis pengujian. Prompt yang lebih pendek dan fokus memberikan hasil lebih baik daripada prompt panjang yang mencoba melakukan semuanya sekaligus.

Unggah file

Open WebUI mendukung unggah file dalam chat. Klik ikon plus di area input dan lampirkan dokumen—PDF, berkas teks, atau sejenisnya.

Setelah diunggah, konten file menjadi bagian dari konteks percakapan. Anda bisa meminta model merangkumnya, mengekstrak informasi spesifik, atau menjawab pertanyaan berdasarkan isi dokumen.

Document conversation

Percakapan berbasis dokumen

Satu hal yang perlu diingat adalah model hanya dapat bekerja dengan konten yang muat dalam jendela konteksnya—jumlah teks maksimum yang bisa diproses sekaligus. File yang sangat besar mungkin terpotong, jadi bagi-bagi jika Anda bekerja dengan dokumen panjang.

Fitur Open WebUI yang Penting

Open WebUI memiliki banyak pengaturan, jadi mari saya bahas beberapa yang benar-benar berarti bagi Anda.

Dukungan multi-model

Pemilih model di bagian atas jendela chat memungkinkan Anda mengganti model di tengah sesi tanpa memulai percakapan baru. Ini berguna saat Anda ingin menguji prompt yang sama pada model berbeda—jalankan di Llama, lalu Mistral, dan bandingkan keluarannya berdampingan.

Model selection

Pemilihan model

Jika Anda mengevaluasi model untuk tugas tertentu, ini menghemat banyak waktu.

Riwayat chat dan sesi

Setiap percakapan disimpan dan ditampilkan di bilah sisi kiri. Anda dapat mengganti nama sesi agar bermakna, sehingga Anda tidak menelusuri daftar entri "New Chat" nantinya.

Previous chat sessions

Sesi chat sebelumnya

Ini membuat Open WebUI berguna untuk pekerjaan berkelanjutan. Anda dapat kembali ke sesi koding, melanjutkan prompt yang setengah jadi, atau menggunakan percakapan sebagai referensi.

Model lokal vs. API

Open WebUI tidak mempermasalahkan apa yang berjalan di belakangnya. Anda bisa menghubungkan model Ollama lokal untuk pekerjaan privat dan API yang kompatibel dengan OpenAI untuk tugas ketika Anda memerlukan model sumber tertutup yang memang tidak muat di memori Anda sejak awal.

Managing OpenAI connections

Mengelola koneksi OpenAI

Gunakan model lokal kecil untuk tugas cepat dan model berbasis API yang lebih besar saat pekerjaan membutuhkannya (dan mengizinkannya).

Pengaturan model kustom

Anda bisa menyesuaikan banyak hal untuk masing-masing LLM.

Di pengaturan model, Anda dapat mengubah system prompt, menambahkan basis pengetahuan (dokumen), dan menghubungkan model ke alat serta keterampilan. Anda juga dapat mengatur untuk kemampuan apa saja model akan digunakan, seperti visi, unggah file, dan memilih apakah model harus melakukan tugas seperti penelusuran web:

Tweaking model settings

Mengutak-atik pengaturan model

Open WebUI vs. ChatGPT dan Antarmuka Lain

Open WebUI tidak berusaha menggantikan ChatGPT. Alih-alih, ia digunakan untuk menyelesaikan masalah yang berbeda.

Open WebUI vs. ChatGPT

Perbedaan inti adalah ke mana data Anda pergi. Dengan ChatGPT, setiap prompt dikirim ke server OpenAI. Dengan Open WebUI, semuanya tetap di mesin Anda—antarmuka, model, dan riwayat percakapan.

Komprominya adalah kinerja. GPT-5 dan model cloud serupa lebih mumpuni daripada kebanyakan model yang bisa Anda jalankan secara lokal. Jika kualitas keluaran mentah adalah prioritas, cloud unggul. Jika privasi atau akses offline lebih penting, lokal adalah pilihan yang tepat.

Biaya juga menjadi faktor. ChatGPT Plus memiliki biaya bulanan tetap. Open WebUI gratis, tetapi Anda "membayar" dengan perangkat keras—mesin dengan RAM yang cukup dan idealnya GPU.

Open WebUI vs. Ollama CLI

CLI Ollama cukup untuk uji cepat, tetapi tidak dirancang untuk pekerjaan nyata. Anda mengetik prompt, mendapat respons, dan selesai. Tidak ada riwayat, tidak ada unggah file, dan tidak ada cara membandingkan model tanpa berpindah terminal.

Open WebUI memberikan antarmuka yang layak untuk Ollama. Model dan backend sama—namun dengan manajemen percakapan, kontrol pengaturan, dan UI yang tidak hilang saat Anda menutup terminal.

Jika Anda sudah menggunakan Ollama, menambahkan Open WebUI di atasnya tidak menambah biaya dan membuat pengalaman pengguna jauh lebih baik.

Open WebUI vs. alat lain

LM Studio adalah aplikasi desktop dengan browser model bawaan dan antarmuka chat serupa. Ini pilihan yang baik jika Anda menginginkan GUI mandiri tanpa Docker. Kekurangannya, ia terikat pada desktop Anda—Open WebUI berjalan di browser dan dapat diakses dari perangkat lain di jaringan Anda.

text-generation-webui lebih ditujukan untuk pengguna tingkat lanjut. Ia mendukung lebih banyak format model dan memiliki kontrol yang lebih mendetail, namun setup lebih rumit dan antarmukanya lebih sulit dinavigasi. Open WebUI adalah titik awal yang lebih baik kecuali Anda secara spesifik membutuhkan apa yang ditawarkan text-generation-webui.

Tabel perbandingan

Anda dapat merujuk tabel ini untuk perbandingan cepat antara Open WebUI dan alternatifnya:

Open WebUI versus alternatives

Open WebUI versus alternatif

Masalah Umum dan Pemecahan Masalah

Sebagian besar masalah Open WebUI jatuh ke dalam salah satu dari lima kategori—dan sebagian besar memiliki perbaikan cepat.

Container tidak mau mulai

Jalankan docker logs open-webui tepat setelah gagal start. Log akan memberi tahu apa yang salah. Sembilan dari sepuluh kasus adalah konflik port atau masalah izin volume.

Konflik port

Jika port 3000 sudah digunakan di mesin Anda, container tidak akan mulai. Perbaiki dengan memetakan ke port host yang berbeda:

docker run -d -p 3001:8080 ...

Lalu akses Open WebUI di http://localhost:3001 sebagai gantinya.

Tidak dapat terhubung ke Ollama

Pertama, pastikan Ollama benar-benar berjalan:

ollama serve

Lalu periksa URL API di Settings - Connections. Di Mac dan Windows, seharusnya http://host.docker.internal:11434. Di Linux, gunakan alamat IP mesin host Anda. URL yang salah di sini adalah alasan paling umum kegagalan koneksi.

Model tidak muncul

Jika pemilih model kosong, Open WebUI terhubung ke Ollama tetapi tidak menemukan model. Jalankan ollama list untuk memastikan Anda sudah menarik setidaknya satu model. Jika daftar kosong, tarik satu:

ollama pull mistral

Muat ulang halaman Open WebUI setelah menarik model—halaman tidak memperbarui secara otomatis.

Performa lambat

Respons lambat hampir selalu merupakan masalah perangkat keras, bukan masalah Open WebUI. Model terlalu besar untuk RAM yang tersedia atau Anda tidak memiliki GPU. Beralihlah ke model yang lebih kecil—model 7B berjalan cukup baik pada sebagian besar mesin modern dengan RAM 16GB. Jika Anda hanya mengandalkan CPU, harapkan respons lebih lambat terlepas dari ukuran model.

Praktik Terbaik Menggunakan Open WebUI

Beberapa kebiasaan akan sangat meningkatkan kinerja Open WebUI dalam penggunaan harian Anda.

  • Gunakan model lebih kecil untuk kecepatan: Model yang lebih besar tidak selalu lebih baik. Model 7B merespons dalam hitungan detik dan menangani sebagian besar tugas sehari-hari dengan cukup baik. Simpan model yang lebih besar untuk tugas yang benar-benar membutuhkannya, seperti penalaran kompleks atau generasi teks panjang
  • Perhatikan panjang percakapan: Setiap pesan dalam percakapan menambah konteks yang harus diproses model. Percakapan yang panjang menjadi lebih lambat dan lebih mahal untuk dijalankan seiring pertumbuhannya. Jika percakapan sudah jauh melenceng dari tujuan awal, mulailah yang baru alih-alih menyeret konteks lama
  • Organisasikan prompt Anda: Jika Anda sering menggunakan prompt yang sama, simpanlah. Open WebUI memungkinkan Anda menyimpan preset prompt agar tidak perlu mengetik ulang instruksi yang sama setiap sesi. Sedikit upaya di awal akan menghemat banyak waktu
  • Pantau sumber daya sistem Anda: Model lokal berjalan di perangkat keras Anda. Jika mesin Anda kewalahan, buka monitor sistem dan periksa penggunaan RAM dan CPU. Menjalankan proses berat lain bersamaan dengan model besar akan memperpanjang waktu respons. Tutup yang tidak diperlukan
  • Gabungkan Open WebUI dengan alat yang sudah Anda gunakan: Antarmuka ini hanyalah bagian depan. Anda bisa mengalirkan output ke skrip, memasukkan file dari editor langsung melalui unggah, atau menggunakan Open WebUI bersamaan dengan terminal untuk tugas koding.

Kapan Menggunakan Open WebUI

Open WebUI cocok untuk situasi tertentu—tidak untuk semua situasi. Berikut daftar saat Anda sebaiknya menggunakannya:

  • Pengembangan lokal adalah kasus penggunaan paling umum. Jika Anda membangun aplikasi di atas LLM dan ingin menguji prompt tanpa menghabiskan kredit API, Open WebUI memberikan siklus umpan balik yang cepat
  • Eksperimen dengan model adalah keunggulan Open WebUI. Anda dapat menarik beberapa model berbeda dengan Ollama dan membandingkan bagaimana mereka menangani prompt yang sama—semua dari antarmuka yang sama, tanpa menulis satu baris kode pun
  • Alur kerja sensitif privasi juga sangat cocok. Jika Anda bekerja dengan dokumen internal, data klien, atau apa pun yang tidak ingin Anda kirim ke server pihak ketiga, setup lokal menjaga semuanya tetap di mesin Anda. Tidak ada data yang keluar kecuali Anda memilih menghubungkan API eksternal
  • Pembelajaran dan pembuatan prototipe juga merupakan skenario yang bagus. Jika Anda baru mengenal LLM dan ingin memahami perilakunya tanpa berlangganan paket berbayar, Open WebUI memberi cara bereksperimen berbiaya rendah. Ini juga berguna untuk membuat prototipe cepat—model lokal cukup cepat untuk menguji ide sebelum Anda berinvestasi pada setup produksi.

Namun demikian, Open WebUI bukan alat yang tepat jika Anda membutuhkan keluaran model terbaik dan privasi bukan masalah. API cloud akan lebih cocok.

Kesimpulan

Open WebUI memberi Anda antarmuka yang bersih dan praktis untuk bekerja dengan model lokal, dan Anda mengontrol lingkungan sepenuhnya.

Tidak ada data yang meninggalkan mesin Anda, tidak ada batas kecepatan, tidak perlu berlangganan. Anda memilih model, mengelola pengaturan, dan memperluas setup sesuai kebutuhan.

Cara terbaik untuk memulai adalah tetap sederhana. Jalankan container Docker, hubungkan model kecil seperti Llama atau Mistral, dan kirim beberapa prompt. Setelah berhasil, Anda bisa menambah model, mengonfigurasi system prompt, menghubungkan API eksternal, dan membangun dari sana.

Sebagai catatan, Anda juga bisa menjalankan Ollama menggunakan Docker tanpa perlu setup lokal. Baca panduan terbaru kami untuk melihat caranya.


Dario Radečić's photo
Author
Dario Radečić
LinkedIn
Senior Data Scientist yang berbasis di Kroasia. Penulis Tekno Teratas dengan lebih dari 700 artikel yang telah diterbitkan, menghasilkan lebih dari 10 juta tayangan. Penulis buku Machine Learning Automation with TPOT.

FAQs

Apa itu Open WebUI?

Open WebUI adalah antarmuka berbasis browser yang di-host sendiri untuk berinteraksi dengan large language model. Cara kerjanya seperti ChatGPT, tetapi berjalan sepenuhnya di mesin Anda sendiri. Anda menghubungkannya ke backend model—seperti Ollama atau API yang kompatibel dengan OpenAI—dan semua data Anda tetap lokal.

Apakah saya membutuhkan mesin yang kuat untuk menjalankan Open WebUI?

Open WebUI sendiri ringan—yang membutuhkan sumber daya adalah model yang berjalan di belakangnya. Untuk sebagian besar model lokal, RAM 16GB adalah patokan yang masuk akal. GPU membantu mempercepat respons, tetapi banyak model kecil berjalan cukup baik di mesin hanya-CPU.

Apakah Open WebUI gratis digunakan?

Ya, Open WebUI bersifat open-source dan gratis. Anda tidak membayar untuk antarmukanya. Biaya yang ada hanya perangkat keras Anda sendiri dan, opsional, penggunaan API eksternal jika Anda memilih menghubungkan penyedia model berbayar seperti OpenAI.

Apa perbedaan Open WebUI dan Ollama?

Ollama adalah backend yang mengunduh dan menjalankan model lokal di mesin Anda. Open WebUI adalah frontend—antarmuka yang Anda gunakan untuk mengirim prompt dan membaca respons. Ollama menangani model, Open WebUI menangani pengalaman chat. Anda bisa menggunakan Ollama tanpa Open WebUI melalui CLI-nya, tetapi pengalamannya jauh lebih terbatas.

Bisakah saya menghubungkan Open WebUI ke API OpenAI alih-alih model lokal?

Bisa. Open WebUI mendukung endpoint API apa pun yang kompatibel dengan OpenAI. Buka Settings - Connections, tambahkan kunci API dan URL endpoint Anda, dan model berbasis cloud akan muncul di pemilih model berdampingan dengan model lokal. Ini memungkinkan Anda berganti antara model lokal dan cloud dari antarmuka yang sama.

Topik

Belajar bersama Datazcamp

Program

Pengembangan Model Bahasa Besar

16 Hr
Pelajari cara mengembangkan model bahasa besar (LLMs) menggunakan PyTorch dan Hugging Face, dengan memanfaatkan teknik deep learning dan NLP terbaru.
Lihat DetailRight Arrow
Mulai Kursus
Lihat Lebih BanyakRight Arrow
Terkait

blogs

12 Alternatif ChatGPT Terbaik yang Bisa Anda Coba pada 2026

Artikel ini menyajikan daftar alternatif ChatGPT yang akan meningkatkan produktivitas Anda.
Javier Canales Luna's photo

Javier Canales Luna

12 mnt

blogs

40 Pertanyaan Wawancara DBMS Teratas di 2026

Kuasai pertanyaan wawancara basis data, dari konsep SQL dasar hingga skenario desain sistem tingkat lanjut. Panduan mendalam ini mencakup semua yang Anda perlukan untuk sukses di wawancara DBMS dan meraih peran berikutnya.
Dario Radečić's photo

Dario Radečić

15 mnt

blogs

Spaghetti Plot dan Jalur Badai

Temukan alasan mengapa Anda sebaiknya (tidak) menggunakan spaghetti plot untuk menyampaikan ketidakpastian jalur prediksi badai serta dampaknya terhadap interpretasi.
Hugo Bowne-Anderson's photo

Hugo Bowne-Anderson

13 mnt

blogs

Tutorial Korelasi di R

Dapatkan pengenalan dasar-dasar korelasi di R: pelajari lebih lanjut tentang koefisien korelasi, matriks korelasi, plotting korelasi, dan sebagainya.
David Woods's photo

David Woods

13 mnt

Lihat Lebih BanyakLihat Lebih Banyak