

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Gunakan driver Hive JDBC
<a name="HiveJDBCDriver"></a>

Anda dapat menggunakan alat intelijen bisnis populer seperti Microsoft Excel,, MicroStrategyQlikView, dan Tableau dengan Amazon EMR untuk menjelajahi dan memvisualisasikan data Anda. Banyak alat bantu ini yang memerlukan driver Java Database Connectivity (JDBC) atau Open Database Connectivity (ODBC). Amazon EMR mendukung konektivitas JDBC dan ODBC ke cluster Spark, Hive atau Presto.

Contoh di bawah ini menunjukkan menggunakan SQL Workbench/J sebagai klien SQL untuk terhubung ke cluster Hive di Amazon EMR. Untuk driver tambahan, lihat [Gunakan alat bantu kecerdasan bisnis dengan Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-bi-tools.html).

Sebelum Anda menginstal dan bekerja dengan SQL Workbench/J, unduh paket driver dan instal driver terkait. Driver yang tercakup dalam paket yang mendukung versi Hive tersedia di rilis Amazon EMR versi 4.0 dan versi yang lebih tinggi. Untuk catatan rilis dan dokumentasi terperinci, lihat dokumentasi PDF yang disertakan dalam paket.
+ **Paket driver JDBC dan ODBC terbaru**

  [http://awssupportdatasvcs.com/bootstrap-actions/Simba/](http://awssupportdatasvcs.com/bootstrap-actions/Simba/)

**Untuk menginstal dan mengonfigurasi SQL Workbench**

1. Unduh Workbench/J klien SQL untuk sistem operasi Anda dari[http://www.sql-workbench.net/downloads.html](http://www.sql-workbench.net/downloads.html).

1. Instal SQL Workbench/J. Untuk informasi lebih lanjut, lihat [Menginstal dan memulai SQL Workbench/J di Manual Pengguna SQL](http://www.sql-workbench.net/manual/install.html) Manual. Workbench/J 

1. **Pengguna Linux, Unix, Mac OS X**: Dalam sesi terminal, buat saluran SSH ke simpul utama kluster Anda menggunakan perintah berikut ini. Ganti *master-public-dns-name* dengan nama DNS publik dari node master dan *path-to-key-file* dengan lokasi dan nama file file kunci `.pem` pribadi Amazon EC2 Anda.

   ```
   ssh -o ServerAliveInterval=10 -i path-to-key-file -N -L 10000:localhost:10000 hadoop@master-public-dns-name
   ```

   **Pengguna Windows**: Dalam sesi PuTTY, buat saluran SSH ke simpul utama kluster Anda (menggunakan port forwarding lokal) dengan `10000` untuk **Port sumber** dan `master-public-dns-name:10000` untuk **Tujuan**. Ganti `master-public-dns-name` dengan nama DNS publik dari simpul utama.

1. Tambahkan driver JDBC ke SQL Workbench.

   1. Di kotak dialog **Pilih Profil Koneksi**, klik **Kelola Driver**. 

   1. Klik ikon **Buat entri baru** (halaman kosong).

   1. Pada kolom **Nama**, ketikkan **Hive JDBC**.

   1. Untuk **Pustaka**, klik ikon **Pilih file JAR**.

   1. Arahkan ke lokasi yang berisi driver yang diekstraksi. **Pilih driver yang disertakan dalam versi paket driver JDBC yang Anda unduh, dan klik Buka.**

      Misalnya, paket driver JDBC Anda mungkin termasuk yang berikut ini. JARs

      ```
      hive_metastore.jar
      hive_service.jar
      HiveJDBC41.jar
      libfb303-0.9.0.jar
      libthrift-0.9.0.jar
      log4j-1.2.14.jar
      ql.jar
      slf4j-api-1.5.11.jar
      slf4j-log4j12-1.5.11.jar
      TCLIServiceClient.jar
      zookeeper-3.4.6.jar
      ```

   1. Pada kotak dialog **Pilih satu driver**, pilih `com.amazon.hive.jdbc41.HS2Driver`, **OKE**.

1. Ketika Anda kembali ke kotak dialog **Kelola Driver**, pastikan bahwa kolom **Classname** telah diisi dan pilih **OKE**. 

1. Ketika Anda kembali ke kotak dialog **Pilih Profil Koneksi**, pastikan bahwa kolom **Driver** telah ditetapkan ke **JDBC Hive** dan ketikkan string koneksi JDBC berikut ini pada kolom **URL**:`jdbc:hive2://localhost:10000/default`.

1. Pilih **OKE** untuk menghubungkan. Setelah koneksi selesai, detail koneksi muncul di bagian atas Workbench/J jendela SQL.

Untuk informasi selengkapnya tentang penggunaan Hive dan antarmuka JDBC, lihat [HiveClient](https://cwiki.apache.org/confluence/display/Hive/HiveClient)dan [Hive JDBCInterface di dokumentasi Apache Hive](https://cwiki.apache.org/confluence/display/Hive/HiveJDBCInterface).