PENDAHULUAN

Seperti yang kita ketahui, media sosial merupakan sebuah media yang berbentuk aplikasi yang digunakan sebagai sarana untuk memperoleh informasi,serta dapat juga digunakan untuk mengungkapkan rasa perasaan, sikap maupun tindakan terhadap suatu topik informasi tersebut dalam berbentuk bahasa yang tertulis (Oktasari, 2015). Dengan demikian, di era saat ini media sosial memiliki peranan yang sangat penting sebagai sumber pencetak informasi yang diperlukan.

Media sosial terdiri saat ini terdiri menjadi beberapa platform seperti Twitter, Facebook, Instagram, Youtube dan media sosial lainnya. Tercatat di tahun 2019, pengguna media sosial di Indonesia terus meningkat yang mana media sosial Youtube dan Instagram mengisi deretan pertama dan kedua sebagai media sosial yang paling banyak digunakan dan dijadikan referensi sebagai sarana untuk mendapatkan informasi (Pertiwi, 2019). Dari total keseluruhan penduduk yang ada di Indonesia 88% memakai media sosial Youtube yang mana media sosial tersebut memiliki fitur seperti penyampaian informasi berupa video singkat serta caption dengan yang dilengkapi berbagai macam kreasi dan inovasi yang membuat pengguna nya merasa tertarik untuk menonton video tersebut serta dapat memberikan komentar berupa sikap atau emosional dari pengguna lewat bahasa yang tertulis.

Banyak para peneliti menggunakan media sosial ini digunakan untuk meneliti sentimen dari statement yang dikeluarkan oleh pengguna media sosial ini dengan cara mengambil data berupa komentar-komentar yang dituliskan oleh pengguna terhadap suatu topik tertentu. Untuk itu diperlukan sebuah metode untuk mengambil data komentar-komentar tersebut yang di sebur dengan “Scrapping”. Metode scraping ini dapat dilakukan menggunakan sebuah bahasa pemrograman yang disebut dengan Python.
Dalam bahasa pemrograman ini, metode Scrapping dapat dilakukan dengan menggunakan library Selenium dan Beautiful soup untuk menelusuri data berupa komentar-komentar tersebut berdasarkan id/nama di sintax html nya.

  1. Tutor
    Sebelum melakukan scrapping data tersebut. Langkah yang dilakukan terlebih dahulu yaitu menginstall library python yang digunakan dalam proses ini yaitu selenium dan beautiful soup dengan cara “pip install “selenium” di command prompt yang sudah terinstal python nya. Hal ini juga berlaku sama dengan penginstallan untuk library beautiful soup. Langkah selanjutnya adalah mendownload aplikasi google chrome versi terbaru serta aplikasi chromedrive.exe yang berfungsi sebagai untuk membuka link yang telah di atur untuk mengambil data komentar pada konten youtube dan instagram.
    Setelah langkah diatas terpenuhi, selanjutnya proses dilanjutnya melakukan scrapping. Tahap terlebih dahulu buka jupyter notebook sebagai text editornya. Masukkan kode berikut ini pada In[1]
from selenium import webdriver
from bs4 import BeautifulSoup as bs
import time
import pandas as pd
driver=webdriver.Chrome(r'C:\Program Files (x86)\Google\Chrome\Application\chromedriver.exe') #(Letakkan 'chromedriver.exe' ke folder yang udah ditetapkan ini)
driver.get('https://www.youtube.com/watch?v=xFmFqkI2utw')
driver.execute_script('window.scrollTo(1, 500);')
#now wait let load the comments
time.sleep(100) #jumlah data yang diambil tergantung scroll saat load data #SARAN Setting time sleppingnya lama
driver.execute_script('window.scrollTo(1,3000);')
comments_youtube=[]
comment_div=driver.find_element_by_xpath('//*[@id="contents"]')
comments=comment_div.find_elements_by_xpath('//*[@id="content-text"]')
for comment in comments:
comments_youtube.append(comment.text)

Penjelasan :

Pada bagian pertama dalam kode ini adalah mengimportkan atau memasukkan semua modul yang telah diinstall sebelumnya terlebih dahulu seperti selenium, beautiful soup, time dan pandas.
Selanjutnya memanggil chromedriver.exe yang sudah disetting sesuai dengan tempat folder yang telah disesuaikan. Tahapan berikut nya link youtube yang akan diambil komentarnya pada kode driver.get
Setelah itu setting waktu (time) saat pengambilan data komen tersebut pada kode time.sleep(100). Nilai 100 disini merupakan jumlah waktu yang digunakan saat pengambilan data berlangsung serta pengambilan data ini dilakukan berdasarkan scrool bar yang dilakukan menjelang time.sleep berhenti. penelurusan data komentar terletak pada kode find_element_by_xpath(‘//*[@id=”contents”]’)yang mana data koment terletak pada bagian class id=”contens” dan id =”contents-text”.

Jika semua nya telah disetting, maka jalankan dengan klik run. Saat proses sedang berjalan sesuai dengan time yang telah disetting browser chrome akan terbuka sendiri secara otomatis dan mengarah ke link youtube yang telah ditentukan, maka selama proses time.sleep nya belum berhenti usahakan melakukan scroll bar sebanyak mungkin jika ingin mendapatkan data komentar yang lebih banyak sampai waktu yang diatur telah habis maka data akan keluar atau terambil secara sendiri pada output text editor jupyter nya. Setelah itu masukkan kode berikut ini pada input berikunya untuk menyimpan data ke dalam bentuk file csv :

comments_dict = {'Comments_youtube':comments_youtube}
comments_youtube_df = pd.DataFrame(comments_dict)
print(comments_youtube_df)
comments_youtube_df.to_csv(r'comments_youtube.csv')

Jalankan script ini untuk menyimpan data dengan nama “comments_youtube.csv” data otomatis akan tersimpan

REFERENSI

  1. Oktasari. (2015). Text mining dalam analisis sentimen asuransi menggunakan metode naive bayes classifier
  2. Pertiwi, K. W. (2019). Facebook jadi medsos paling digemari di indonesia. Retrieved from https://tekno.kompas.com/read/2019/02/05/11080097/ facebook-jadi-medsos-paling-digemari-di-indonesia?page=all

Original Create by: Muhammad Ridwan dan Nova Sestri Yeni

Sumber Gambar