Blajar crawling data dari twitter

Blajar crawling data dari twitter

Crawling adalah semacam pengambilan data dari media sosial kemudian di kumpulkan menjadi satu untuk di evakuasi dan di bentuk agar menjadi sebuah penelitian.

Thank you for reading this post, don't forget to subscribe!

Prosesnya cukup mudah tergantung kamu ingin mengambil data dari sosial media mana. Misalkan kamu ingin crawling data dari twitter ada dua cara yaitu dengan menggunakan API dan tanpa API.

Data yang dapat kamu kumpulkan dapat berupa text, audio, video, dan gambar. Kamu dapat memulai dengan melakukan penambangan data pada API yang bersifat open source seperti yang disediakan oleh Twitter.

Mengenal Twint

selanjutnya kita menggunakan twint nah pasti banyak yang belom tahu apa itu twint, Twint adalah alat pengikis Twitter canggih yang ditulis dengan Python yang memungkinkan untuk mengambil data Tweet dari profil Twitter tanpa menggunakan API Twitter.

Twint mampu menarik data Tweet tanpa batas. Semangat pembuatan Twint lahir untuk mengakali terbatas dan mahalnya layanan Twitter API. Keampuhan Twint terletak pada kemampuannya menarik tweet dari berbagai model seperti akun, hastag, periode.

Keunggulan Twint

  1. Mudah Tak perlu pengaturan ribet seperti Twitter API karena dapat dilakukan sendiri dengan Python.
  2. Gratis dan Bebas Kuota Lisensi Twitter API termurah membatasi jumlah tweet hanya 3200. Dengan Twint, ambil data sebanyak-banyaknya tanpa biaya.
  3. Fleksibel Twint mampu mengambil tweet user spesifik, hashtag, hingga tweet yang muncul di periode tertentu.
  4. Terintegrasi Mudah dikonversi menjadi file yang bisa digunakan dengan infrastruktur analisis data lainnya.

Cara insatall Twint

Twint merupakan library yang berada di ekosistem Python. Ada beberapa cara menginstall Twint. Cara pertama adalah melalui terminal dengan kode:

Cara kedua adalah clone lewat Git dengan kode:

kalau pada saat import twint mengalami error mungkin bisa tambahkan code berikut ini, kemudian running lah.

Setelah menginstal twint tentunya belum bisa di jalankan karena kamu perlu menginportnya terlebih dahulu supaya twint bisa digunakan caranya cukup mudah masukan saja kode di bawah ini:

Tahap berikutnya Install Nest Asyncio dan lakukan Import

Nest Asyncio Secara opsional, loop spesifik yang perlu ditambal dapat diberikan sebagai argumen untuk diterapkan , jika tidak, loop peristiwa saat ini digunakan. Loop peristiwa dapat ditambal apakah sudah berjalan atau belum. Hanya loop acara dari asyncio yang dapat ditambal; Loop dari proyek lain, seperti uvloop atau quamash, umumnya tidak dapat ditambal.

Proses Ambil Data Twitter

Sudah import semuanya ? kini kamu tinggal menentukan data apa yang ingin di ambil. Kita ambil saja salah satu hastag yang sedang viral di twitter yaitu Kemudian running kode tersebut maka akan muncul semua data yang ada di twitter khusunya yang berhastag Kamu bisa juga mengeksport semua data tersebut ke csv. caranya kamu masukan kode di bawah ini untuk membuat tabelnya terlebih dahulu. Kemudian masukan kode di bawah ini untuk mengeksport ke dalam file berekstensi csv.

Jika kode berhasil di jalankan maka akan muncul hasil crowling dari twetter

 

Baca juga :   Cara Mengunggah Konten ke GitHub Menggunakan Visual Studio Code

 

 

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *

Blajar crawling data dari twitter

by | Oct 16, 2022 | web mining | 0 comments

DAFTAR BACA

Cara Mengunggah Konten ke GitHub Menggunakan Visual Studio Code

Cara Mengunggah Konten ke GitHub Menggunakan Visual Studio Code

GitHub adalah platform hosting yang populer untuk mengelola dan berbagi proyek pengembangan perangkat lunak. Mengunggah konten ke GitHub memungkinkan Anda menyimpan, membagikan, dan berkolaborasi dengan pengembang lain dalam proyek Anda. Dalam artikel ini, kami akan...

Cara clustering menggunakan bahasa pemrograman python

Cara clustering menggunakan bahasa pemrograman python

Sebelum kita bahas lebih dalam lagi alangkah baiknya kita harus tahu apa itu clustering, clustering adalah teknik dalam machine learning yang digunakan untuk mengelompokkan data yang serupa menjadi beberapa kelompok (cluster) berdasarkan kemiripan di antara data...

Analisis sentimen klasifikasi ulasan film menggunakan python

Analisis sentimen klasifikasi ulasan film menggunakan python

Analisis sentimen klasifikasi ulasan film Saat ini perusahaan ingin mengerti, apa yang salah dengan produk terbaru mereka? apa pendapat pengguna dan masyarakat umum tentang fitur terbaru? Anda dapat mengukur informasi tersebut dengan akurasi yang baik menggunakan...

Pengindeksan Semantik Laten menggunakan Scikit-Learn

Pengindeksan Semantik Laten menggunakan Scikit-Learn

Pada pembahasan kali ini kita akan fokus pada Latent Semantic Indexing atau Latent Semantic Analysis dan melakukan pemodelan topik menggunakan Scikit-learn. Jika Anda ingin mengimplementasikan pemodelan topik menggunakan Gensim, Anda dapat merujuk ke artikel Menemukan...

Cara crawling data website berita dengan program python dengan mudah

Cara crawling data website berita dengan program python dengan mudah

crawling data berita adalah proses pengumpulan informasi dari website berita secara otomatis dengan menggunakan perangkat lunak tertentu yang disebut "crawler" atau "spider". Crawler akan memindai dan mengambil data dari setiap halaman website berita yang ditentukan,...

Klasifikasi Menggunakan Metode Ensemble Learning pada Twitter

Klasifikasi Menggunakan Metode Ensemble Learning pada Twitter

Ensemble Learning adalah proses di mana beberapa model, seperti pengklasifikasi atau ahli, secara strategis dihasilkan dan digabungkan untuk memecahkan kecerdasan komputasi tertentu.masalah. Ensemble Learning utamanya digunakan untuk meningkatkan (klasifikasi,...