[HOT POOLLING]Apakah Youtube Error Lagi ?

Diskusi tentang Ubuntu Server baik webserver, database server, samba server dan service lainnya serta jaringan menggunakan Sistem Operasi Ubuntu.
User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Re: [HOT POOLLING]Apakah Youtube Error Lagi ?

Post by q_p » 11 Oct 2013, 18:36

djamil wrote:sekalian numpang tanya di threat ini mas q_p.. kl di squid log banyak keluar begini

Code: Select all

aioSync: flushing pending I/O operations
gimana obatnya apa mas?? :grin:
crash itu mas kayaknya, coba anda jalankan dalam mode-debug untuk melihat error-nya secara lengkap

Code: Select all

#squid -NXd1


User avatar
dja
Posts: 61
Joined: 06 Nov 2012, 23:43

Post by dja » 11 Oct 2013, 23:02

jln keluarnya gimana mas,,,?


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 11 Oct 2013, 23:46

djamil wrote:jln keluarnya gimana mas,,,?
@ Mas Djamil
Coba baca-baca disini mas, barangkali bisa membantu
http://opensource.telkomspeedy.com/foru ... hp?id=8128


User avatar
dja
Posts: 61
Joined: 06 Nov 2012, 23:43

Post by dja » 12 Oct 2013, 05:10

mas abel terimaksih rujukan nya,,.. :grin:


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 12 Oct 2013, 21:37

asiikkk yutub berubah rubah lagi ^_^


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 12 Oct 2013, 22:07

SyaifuddinJW wrote:asiikkk yutub berubah rubah lagi ^_^
Malam Mas Syaifudin
Iya nih mas, yutub berubah rubah lagi, dua hari lalu erot lagi, tapi r61 masih mampu mengatasi kok. :grin:


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 13 Oct 2013, 22:52

Malam Mas q_p (mas Pragola)
https://youtube.com, berubah gak bisa hit :confused:
apa memang si yusub benar2 sudah migrasi ya mas?


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 14 Oct 2013, 01:05

Wow ... ada mas SJW, Gimana kabarnya ?

@anbel
Kalau 's'-nya ( http://www.youtube.com/watch?v=pDURt4sE ... DURt4sE9Is ) dihilangkan masih bisa hit :)
[video:youtube]http://www.youtube.com/watch?v=pDURt4sE9Is[/video]


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 14 Oct 2013, 10:11

@Mas Pragola.
Betul mas klu tanpa s (http) masih bisa hit,
sepertinya baru 2hari ini yg menggunakan https gak bisa hit lagi.
Berarti kita harus berjuang untuk bisa sukses dengan ssl bump. :)


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 14 Oct 2013, 17:17

anbel wrote:@Mas Pragola.
Betul mas klu tanpa s (http) masih bisa hit,
sepertinya baru 2hari ini yg menggunakan https gak bisa hit lagi.
Berarti kita harus berjuang untuk bisa sukses dengan ssl bump. :)
Kalau masuknya ke youtube dari searching google, hasilnya memang https. Karena google search, secara default sudah https. Kasih toolbar http://youtube.com pada setiap browser, searching dari youtube.


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 14 Oct 2013, 18:05

@pragola_pati : alhamdulillah sehat semua pakde, cuma kerepotan karena si kembar :D

o ya untuk rekan rekan ada oleh oleh dikit nich

http://pastebin.com/bkLbGNgy


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 14 Oct 2013, 18:40

@Mas Syaifuddin
Malam Mas, terima kasih oleh olehnya, yg storeurl.pl ditambahkan ke R61 atau mengganti yg berkaitan dg youtube?


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 14 Oct 2013, 19:27

SyaifuddinJW wrote:@pragola_pati : alhamdulillah sehat semua pakde, cuma kerepotan karena si kembar :D

o ya untuk rekan rekan ada oleh oleh dikit nich

http://pastebin.com/bkLbGNgy
crontab -nya bagaimana kalau begini Dhe ?

Code: Select all

#####  crontab setiap menit untuk menghapus file yg sudah tidak terpakai lebih dari 1 jam yang lalu
*/1 * * * * find /var/log/squid/ -type f -mmin +60 name 'access.log' -delete >/dev/null 2>&1
saya tambahkan 'name' karena dalam dir tsb saya pakai juga untuk swap.state


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 14 Oct 2013, 19:31

Terima kasih mas Syaifuddin updatenya, langsung testdrive, :)


Lapor Mas, R65 sepertinya di tempat saya malah susah untuk hit, :confused:
sementara kembali ke rR61.


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 15 Oct 2013, 04:20

Bagian ini sudah di-pagari ? =

Code: Select all

# strip_query_terms off 		
# acl yutub dstdomain .youtube.com .youtu.be 		
# logformat squid1 %{Referer}>h %ru 		
# access_log /var/log/squid/yt.log squid1 yutub 		
# acl redirec urlpath_regex -i &redirect_counter=1&cms_redirect=yes &ir=1&rr=12 		
# cache deny redirec 		
# storeurl_access deny redirec


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 15 Oct 2013, 05:35

@Mas Pragola_Pati
Terima kasih, rupanya ada yg ketinggalan blm di commment strip_query_terms off.
Lagi test drive mas, nanti hasil dilaporkan :grin:
____________________________________________________

Blm bisa juga mas he he he :confused:
Sementara menggunakan penggabungan R61 & R 65, malah hit mas, tapi hasil lognya jadi nambah tempat.

Code: Select all

root@anbelnet:~# ls -lah /var/log/squid
total 316M
drwxr-x---  2 proxy proxy 4.0K 2013-10-15 04:53 .
drwxr-xr-x 10 root  root  4.0K 2013-10-14 06:25 ..
-rw-r-----  1 proxy proxy   19 2013-10-14 19:39 013p6nkXsLQ0GunE
-rw-r-----  1 proxy proxy   12 2013-10-14 22:45 7VKCAOd0YNE48om2
-rw-r-----  1 proxy proxy  65M 2013-10-15 05:43 access.log
-rw-r-----  1 proxy proxy  56M 2013-10-14 06:25 access.log.1
-rw-r-----  1 proxy proxy 9.7M 2013-10-13 06:24 access.log.2.gz
-rw-r-----  1 proxy proxy 168K 2013-10-15 05:38 cache.log
-rw-r-----  1 proxy proxy 931K 2013-10-14 06:25 cache.log.1
-rw-r-----  1 proxy proxy  14K 2013-10-13 02:01 cache.log.2.gz
-rw-r-----  1 proxy proxy   12 2013-10-14 22:45 cwI_t3_8d9Mfa7EB
-rw-r-----  1 proxy proxy   19 2013-10-14 23:14 Jk2T5HZnQ5fx-Pnq
-rw-r-----  1 proxy proxy   19 2013-10-14 22:33 MeCJQkiLaxknZweE
-rw-r-----  1 proxy proxy   17 2013-10-14 22:44 nv_h6M3mGSfbVs04
-rw-r-----  1 proxy proxy   18 2013-10-15 04:53 QDroUhRQMrya4swW
-rw-r-----  1 proxy proxy  58M 2013-10-15 05:43 referer.log
-rw-r-----  1 proxy proxy  22M 2013-10-12 06:25 referer.log.0
-rw-r-----  1 proxy proxy  46M 2013-10-14 06:25 referer.log.1
-rw-r-----  1 proxy proxy 6.6M 2013-10-13 06:20 referer.log.2.gz
-rw-r-----  1 proxy proxy    0 2013-04-29 20:41 store.log.1
-rw-r-----  1 proxy proxy  24M 2013-10-15 05:43 yt.log
-rw-r-----  1 proxy proxy  11M 2013-10-12 06:25 yt.log.0
-rw-r-----  1 proxy proxy  18M 2013-10-14 06:18 yt.log.1
-rw-r-----  1 proxy proxy 1.1M 2013-10-13 06:19 yt.log.2.gz
-rw-r-----  1 proxy proxy   19 2013-10-14 22:45 ZhZfZcWRT3MBPNrH
-rw-r-----  1 proxy proxy   12 2013-10-14 19:07 ZwZBBh2RFvNxVrwL


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 15 Oct 2013, 06:50

lempar link youtube yg mengandung (ptracking|stream_204|player_204|gen_204) ke storeurl
selagi http maka insya allah HIT, sedangkan https harus bermain ssl_bump dulu


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 15 Oct 2013, 08:05

@Mas SJW.
Pagi Mas, maaf lahir batin nih, mumpung lebaran. :grin:
Mas klu di log squid digabung apa berpengaruh di performance squidnya gak? he he hee, harap maklum banyak tanya biar gak nyasar.


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 15 Oct 2013, 15:02

anbel wrote:@Mas SJW.
Pagi Mas, maaf lahir batin nih, mumpung lebaran. :grin:
[size:11pt]Mas klu di log squid digabung[/size] apa berpengaruh di performance squidnya gak? he he hee, harap maklum banyak tanya biar gak nyasar.
yg dimaksud dari yg saya bold itu apa?? digabung dengan apa??
kalau maksudnya digabung dengan yg di cek oleh storeurl maka dapat saya katakan performa kalau menggunakan access.log atau log dari squid lainnya maka apabila requestnya meningkat maka performanya terlihat menurun jauh, dikarenakan harus mengecek log squid yg terdapat sekian banyak baris, ini sama dengan menggunakan read backward
tetapi dengan cara dipisah pisah file pembacaan storeurlnya maka performa diharapkan tidak menurun jaug


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 15 Oct 2013, 16:46

@SJW
:)
SyaifuddinJW wrote:lempar link youtube yg mengandung (ptracking|stream_204|player_204|gen_204) ke storeurl
selagi http maka insya allah HIT, sedangkan https harus bermain ssl_bump dulu
Masih belum mudeng saya, yang ada (ptracking|stream_204|player_204|gen_204) masih miss Dhe :
stream_204 wrote:1381831604.307 264 192.168.0.100 TCP_MISS/204 277 GET http://s.youtube.com/stream_204?vps=280.627:PL&scoville=1&df=280.627:626&fmt=134&docid=pDURt4sE9Is&ns=yt&ei=mhJ
dUsSsKKqamQWUqoHwAw&bwm=280.627:2715364.000:0.233&cpn=ZtTe9xU_wfIZH5Yb&event=streamingstats&el=detailpage&bh=280.627:49.920 - DIRECT/118.98.111.20 text/html
Apakah di-lempar pakai acl Dhe ? dengan ini misalnya =

Code: Select all

#acl videocache_allow_url url_regex -i \.youtube\.com\/(ptracking|stream_204|player_204|gen_204)
#acl videocache_allow_url url_regex -i \.youtube\.[a-z][a-z]\/(ptracking|stream_204|player_204|gen_204)
Hasil-nya dengan 'acl tadi dan tanpa referer.log, yt.log, readbackward' bisa hit kecuali (ptracking|stream_204|player_204|gen_204)


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 15 Oct 2013, 21:48

SyaifuddinJW wrote:
anbel wrote:@Mas SJW.
Pagi Mas, maaf lahir batin nih, mumpung lebaran. :grin:
[size:11pt]Mas klu di log squid digabung[/size] apa berpengaruh di performance squidnya gak? he he hee, harap maklum banyak tanya biar gak nyasar.
yg dimaksud dari yg saya bold itu apa?? digabung dengan apa??
kalau maksudnya digabung dengan yg di cek oleh storeurl maka dapat saya katakan performa kalau menggunakan access.log atau log dari squid lainnya maka apabila requestnya meningkat maka performanya terlihat menurun jauh, dikarenakan harus mengecek log squid yg terdapat sekian banyak baris, ini sama dengan menggunakan read backward
tetapi dengan cara dipisah pisah file pembacaan storeurlnya maka performa diharapkan tidak menurun jaug
@Mas SJW
Maaf mas, maksud saya squid masih menggunakan referer.log, yt.log dan masih menggunakan readbackward.
dan storeurl R61 tanpa mengurangi isi tetapi ditambahkan dengan penambahan dalam R65.
Apa bisa mengurangi performa dari squid? karena menggunakan R65 hasilnya yotube di tempat saya blm bisa hit dan justru dengan R61 masih bisa hit.


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 16 Oct 2013, 06:13

anbel wrote:
SyaifuddinJW wrote:
anbel wrote:@Mas SJW.
Pagi Mas, maaf lahir batin nih, mumpung lebaran. :grin:
[size:11pt]Mas klu di log squid digabung[/size] apa berpengaruh di performance squidnya gak? he he hee, harap maklum banyak tanya biar gak nyasar.
yg dimaksud dari yg saya bold itu apa?? digabung dengan apa??
kalau maksudnya digabung dengan yg di cek oleh storeurl maka dapat saya katakan performa kalau menggunakan access.log atau log dari squid lainnya maka apabila requestnya meningkat maka performanya terlihat menurun jauh, dikarenakan harus mengecek log squid yg terdapat sekian banyak baris, ini sama dengan menggunakan read backward
tetapi dengan cara dipisah pisah file pembacaan storeurlnya maka performa diharapkan tidak menurun jaug
@Mas SJW
Maaf mas, maksud saya squid masih menggunakan referer.log, yt.log dan masih menggunakan readbackward.
dan storeurl R61 tanpa mengurangi isi tetapi ditambahkan dengan penambahan dalam R65.
Apa bisa mengurangi performa dari squid? karena menggunakan R65 hasilnya yotube di tempat saya blm bisa hit dan justru dengan R61 masih bisa hit.
apakah ada seperti ini??? kalau tidak maka tambahkan

Code: Select all

acl ucub url_regex -i youtube.*(ptracking|stream_204|player_204|gen_204).*$
acl ucub url_regex -i \.c\.(youtube|google)\.com\/(get_video|videoplayback|videoplay).*$
storeurl_access allow ucub


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 16 Oct 2013, 23:42

@Mas SJW
Terima kasih penambahan acl dan update r70, yusubnya sudah bisa hit. untuk yusub https masih mengharap bisa hit lagi :)


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 17 Oct 2013, 01:01

Dhe, yang ini juga menghapus file access.log yang terletak pada dir /var/log/squid/ kan ?

Code: Select all

#####  crontab untuk menghapus file yg sudah tidak terpakai lebih dari 1 jam yang lalu
### 0 * * * * find /var/log/squid/ -type f -mmin +60 -delete >/dev/null 2>&1
Bagaimana kalau seperti ini Dhe, biar cli "tail -f /var/log/squid/access.log | ccze" masih bisa jalan ?

Code: Select all

#####  crontab untuk menghapus file yg sudah tidak terpakai lebih dari 1 jam yang lalu, kecuali access.*
### 0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 17 Oct 2013, 07:23

@Mas Pragola Pati
Di tempat saya, cronjob saya sesuaikan dengan ramuan Mas SJW, berjalan dengan baik di tail -f /var/....../access.log masih berjalan sempurna,
Klu kemarin saya masih menggunakan readbackward, referer.log, yt.log yg mrngakibatkan menumpuknya log squid, tapi dengan menjalankan cronjob jadi bersih kambali.
Terima kasih Mas Pragola & Mas SJW


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 17 Oct 2013, 08:16

Bagaimana jika server tidak ada yang akses (semua kompi client iddle) atau server mati/dimatikan selama 60 menit lebih ? File /var/log/squid/access.log yang baru akan segera terbentuk ulang dengan volume yang kecil, bagaimana jika saat itu logrotate bekerja ?
Itulah yang saya alami, ketika semua kompi klien mati lebih dari satu jam. Kemudian backup /var/log/squid saya restore dan crontab saya ubah seperti di atas.


###update
  1. Dengan r71 r70 hasilnya jauh lebih respondif dari pada pakai "readbackward, referer.log dan yt.log"
  2. Youtube banyak yang pakai jalur IIX
Last edited by q_p on 27 Feb 2016, 21:48, edited 1 time in total.
Reason: keliru nulis 71


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 17 Oct 2013, 15:27

@Mas Pragola
Oo begitu ya mas, saya kok gak sampai berpikir sejauh itu ya.... :)
terima kasih sarannya.
Untuk R71 kok saya blm lihat ya.. apa barangkali blm diterbitkan sama Mas SJW.
----------------------------------------------------------------
Eh.... baru lihat R71 (store-id.pl) :)


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 17 Oct 2013, 16:05

anbel wrote:@Mas Pragola
Oo begitu ya mas, saya kok gak sampai berpikir sejauh itu ya.... :)
terima kasih sarannya.
Untuk R71 kok saya blm lihat ya.. apa barangkali blm diterbitkan sama Mas SJW.
----------------------------------------------------------------
Eh.... baru lihat R71 (store-id.pl) :)
upss ... sory, maksud saya r70.


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 17 Oct 2013, 18:10

q_p wrote:Dhe, yang ini juga menghapus file access.log yang terletak pada dir /var/log/squid/ kan ?

Code: Select all

#####  crontab untuk menghapus file yg sudah tidak terpakai lebih dari 1 jam yang lalu
### 0 * * * * find /var/log/squid/ -type f -mmin +60 -delete >/dev/null 2>&1
Bagaimana kalau seperti ini Dhe, biar cli "tail -f /var/log/squid/access.log | ccze" masih bisa jalan ?

Code: Select all

#####  crontab untuk menghapus file yg sudah tidak terpakai lebih dari 1 jam yang lalu, kecuali access.*
### 0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1
selagi file tersebut masih diakses maka tidak akan dihapus, namun apabila sudah tidak diakses maka akan dihapus, sebaiknya disesuaikan dengan keinginan saja, ada baiknya limit waktunya dibuat besar saja misal selama 24 jam terakhir ( 24 jam = 24 * 60 menit = ?? )


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 17 Oct 2013, 22:30

@mas Pragola
Sudah saya test crontab saran Mas Pragola, hasilnya access.log & cache.log tidak terhapus.

Code: Select all

0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*, cache.*" -type f -mmin +60 -delete >> /dev/null 2>&1
Terima kasih.


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 17 Oct 2013, 23:19

@SJW
@anbel
Iya Dhe, itu alternatif yang bagus. Bisa diperbesar lagi jika kita sering luar-kota untuk beberapa hari sehingga server perlu dimatikan.


User avatar
Widya
Posts: 29
Joined: 14 Jun 2013, 22:21
Location: RIAU
Contact:

Post by Widya » 18 Oct 2013, 02:58

bang, youtube kok ngak ngecache lagi ya bang..?


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 18 Oct 2013, 14:08

@Widia
Youtube http masih bisa kecache, klu yang https memang sulit.
Silahkan update storeurlnya.


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 19 Oct 2013, 22:34

@SJW
Dengan r70 Youtube berubah lagi, file youtube yang didownload baik itu lewat add-on mozila ( DownoadHelper 4.9.21 ) maupun http://keepvid.com/ yang ter-download hanya preview-nya saja atau file lainnya yang sudah ter-download sebelum itu.
Tidak rejadi jika menggunakan r59

###
menggunakan mozilla v24.0


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 01:59

anbel wrote:@mas Pragola
Sudah saya test crontab saran Mas Pragola, hasilnya access.log & cache.log tidak terhapus.

Code: Select all

0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*, cache.*" -type f -mmin +60 -delete >> /dev/null 2>&1
Terima kasih.
++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

saya coba crontab di atas kok ada pesan ky gini mas...

2013/10/20 01:57:16| parseConfigFile: squid.conf:51 unrecognized: '0'
2013/10/20 01:57:16| Squid is already running! Process ID 975


================
gimana mas ini ....???


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 02:01

@ Mas Pragola dan mas Syaifuddin mohon diberi pencerahan saya mas .... terkait hal di atas .... makasih sblumnya


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 20 Oct 2013, 02:37

cah_clacap wrote:
saya coba crontab di atas kok ada pesan ky gini mas...

2013/10/20 01:57:16| parseConfigFile: squid.conf:51 unrecognized: '0'
2013/10/20 01:57:16| Squid is already running! Process ID 975


================
gimana mas ini ....???
namanya juga crontab (cron job), ya meletakkannya di crontab, kalo dibilang itu config squid baru masukkan di squid.conf


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 20 Oct 2013, 02:39

q_p wrote:@SJW
Dengan r70 Youtube berubah lagi, file youtube yang didownload baik itu lewat add-on mozila ( DownoadHelper 4.9.21 ) maupun http://keepvid.com/ yang ter-download hanya preview-nya saja atau file lainnya yang sudah ter-download sebelum itu.
Tidak rejadi jika menggunakan r59

###
menggunakan mozilla v24.0
waduh saya ndak nyoba pakai itu dhe, saya nyobanya pakai logika saja :blush:


User avatar
fida
Posts: 30
Joined: 08 Mar 2013, 03:05

Post by fida » 20 Oct 2013, 06:41

ternyata setelah saya coba download juga terjadi hal yg sama mas,setelah saya coba pakai r59 malah error mas


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 12:34

SyaifuddinJW wrote:
cah_clacap wrote:
saya coba crontab di atas kok ada pesan ky gini mas...

2013/10/20 01:57:16| parseConfigFile: squid.conf:51 unrecognized: '0'
2013/10/20 01:57:16| Squid is already running! Process ID 975


================
gimana mas ini ....???
namanya juga crontab (cron job), ya meletakkannya di crontab, kalo dibilang itu config squid baru masukkan di squid.conf
-------------------------------------------------------

saya harus copas di sebelah mana mas scriptnya???

# /etc/crontab: system-wide crontab
# Unlike any other crontab you don't have to run the `crontab'
# command to install the new version when you edit this file
# and files in /etc/cron.d. These files also have username fields,
# that none of the other crontabs do.

SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin

# m h dom mon dow user command
17 * * * * root cd / && run-parts --report /etc/cron.hourly
25 6 * * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )
47 6 * * 7 root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.weekly )
52 6 1 * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.monthly )
#
---------------------------


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 12:35

q_p wrote:@SJW
Dengan r70 Youtube berubah lagi, file youtube yang didownload baik itu lewat add-on mozila ( DownoadHelper 4.9.21 ) maupun http://keepvid.com/ yang ter-download hanya preview-nya saja atau file lainnya yang sudah ter-download sebelum itu.
Tidak rejadi jika menggunakan r59

###
menggunakan mozilla v24.0
++++++++++++++++++++++++++++++++++++++++++++++++++++++++

saya harus copas di sebelah mana mas scriptnya???

# /etc/crontab: system-wide crontab
# Unlike any other crontab you don't have to run the `crontab'
# command to install the new version when you edit this file
# and files in /etc/cron.d. These files also have username fields,
# that none of the other crontabs do.

SHELL=/bin/sh
PATH=/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin

# m h dom mon dow user command
17 * * * * root cd / && run-parts --report /etc/cron.hourly
25 6 * * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )
47 6 * * 7 root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.weekly )
52 6 1 * * root test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.monthly )
#
---------------------------


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 13:05

Mohon pencerahannya Mas Syaifuddin JW ....... Trims sebelumnya


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 20 Oct 2013, 14:36

@Mas cah_clacap
# crontab -e
tambah scrip :
0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1
0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "cache.*" -type f -mmin +60 -delete >> /dev/null 2>&1


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 14:55

anbel wrote:@Mas cah_clacap
# crontab -e
tambah scrip :
0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1
0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "cache.*" -type f -mmin +60 -delete >> /dev/null 2>&1
++++++++++++++++++++++++++++++++++

Letaknya di bawah ato di atas script yg mana >>>>???

apa isi script yg lama dihapus dulu ??? coba script lengkapnya punya mase dipajang,,,,


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 20 Oct 2013, 15:08

Ini mas tak pampang
Attachments
crontab.png
crontab.png (141.14 KiB) Viewed 1616 times


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 20 Oct 2013, 17:02

@cah_cilacap
@anbel
Tentang cron-job, yang saya tahu ada dua pendekatan.
  1. Dengan memasukkan pada salah satu dir di bawah ini, seperti yang biasa dilakukan developer

    Code: Select all

    root@dns:~# ls /etc | grep cron.
    cron.d
    cron.daily
    cron.hourly
    cron.monthly
    cron.weekly
  2. Dengan memasukkan ke crontab

    Code: Select all

    crontab -e
    Cara inilah yang biasa kita pakai. Pada saat pertama kali dijalankan anda akan diminta memilih editor yang akan digunakan secara default pada pemakaian crontab kesempatan berikutnya. Misalnya kita memilih 'nano', akan muncul layar seperti dicontohkan oleh mas anbel di atas tapi belum ada input-nya sama-sekali yang ditandai dengan adanya pagar (#) pada setiap baris-nya. Selanjutnya, masukkan saja perintah (cron-job) di bawah ini pada baris terakhir (hanya satu baris)

    Code: Select all

    0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1
    Setelah selesai meng-input, file tsb tersimpan pada /var/spool/cron/crontabs/root yang hanya bisa di-edit dengan crontab-cli. Coba bandingkan isi file tsb

    Code: Select all

    cat /var/spool/cron/crontabs/root
    dengan output dari crontab-cli

    Code: Select all

    crontab -l
@SJW
Nah itu Dhe sing aku ra mudeng :grin:


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 18:45

q_p wrote:@cah_cilacap
@anbel
Tentang cron-job, yang saya tahu ada dua pendekatan.
  1. Dengan memasukkan pada salah satu dir di bawah ini, seperti yang biasa dilakukan developer

    Code: Select all

    root@dns:~# ls /etc | grep cron.
    cron.d
    cron.daily
    cron.hourly
    cron.monthly
    cron.weekly
  2. Dengan memasukkan ke crontab

    Code: Select all

    crontab -e
    Cara inilah yang biasa kita pakai. Pada saat pertama kali dijalankan anda akan diminta memilih editor yang akan digunakan secara default pada pemakaian crontab kesempatan berikutnya. Misalnya kita memilih 'nano', akan muncul layar seperti dicontohkan oleh mas anbel di atas tapi belum ada input-nya sama-sekali yang ditandai dengan adanya pagar (#) pada setiap baris-nya. Selanjutnya, masukkan saja perintah (cron-job) di bawah ini pada baris terakhir (hanya satu baris)

    Code: Select all

    0 * * * * find /var/log/squid/ -maxdepth 1 ! -name "access.*" -type f -mmin +60 -delete >> /dev/null 2>&1
    Setelah selesai meng-input, file tsb tersimpan pada /var/spool/cron/crontabs/root yang hanya bisa di-edit dengan crontab-cli. Coba bandingkan isi file tsb

    Code: Select all

    cat /var/spool/cron/crontabs/root
    dengan output dari crontab-cli

    Code: Select all

    crontab -l
@SJW
Nah itu Dhe sing aku ra mudeng :grin:

===========================

makasih mas ....sy coba dulu


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 18:47

anbel wrote:Ini mas tak pampang
==============================
makasih mas


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 20 Oct 2013, 19:06

@ All : sippp udah jadi ..... makasih all


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 21 Oct 2013, 15:01

q_p wrote: @SJW
Nah itu Dhe sing aku ra mudeng :grin:
kirimin aku log dari downloader youtubenya dhe


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 21 Oct 2013, 16:03

OK, saya siapkan dulu, karena sudah saya kembalikan ke r59.pl


User avatar
cah_clacap
Posts: 258
Joined: 19 Mar 2013, 23:07
Location: Cilacap
Contact:

Post by cah_clacap » 21 Oct 2013, 16:18

q_p wrote:OK, saya siapkan dulu, karena sudah saya kembalikan ke r59.pl
+++++++++++++++++++++++++++++

emang yg r70 atu 72 kenapa mas ...padahal sy baru beralih ke r72 je ..... apa harus kembali ke r59 atau r61????


ada saran???


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 21 Oct 2013, 17:20

@SJW
Dhe, log yang dimaksud ini log squid (access.log) yang berkaitan dengan aktivitas DownloadHelper, atau log-nya DownloadHelper yang ter-install di kompi klien ? Soale, dari konpi klien saya cari2 tdk ada log-nya DownloadHelper ...

@cah_cilacap
Kejadiannya seperti dalam reply saya di halaman 86 =
q_p wrote:@SJW
Dengan r70 Youtube berubah lagi, file youtube yang didownload baik itu lewat add-on mozila ( DownoadHelper 4.9.21 ) maupun http://keepvid.com/ yang ter-download hanya preview-nya saja atau file lainnya yang sudah ter-download sebelum itu.
Tidak rejadi jika menggunakan r59

###
menggunakan mozilla v24.0
Itu kan kebalikannya dengan kejadian di halaman pertama. Kalau di halaman pertama, setiap kali 'ucup' selalu memutar video yang sama. Kebalikkannya, kali ini 'ucup' kalau di-download selalu men-download file yang sama.


User avatar
anbel
Posts: 263
Joined: 18 Mar 2013, 23:38
Location: Bogor - Jakarta
Contact:

Post by anbel » 21 Oct 2013, 22:07

@Mas Pragola
Dengan R70 setelah dicoba menggunakan YTD Video Downloader hasil download sesuai file yg kita harapkan, cuma file tsb tidak tercache, dalam arti kalau kita mendownload file yang sama akan terhubung ke server asli tidak mengambil cache dari proxy.
Mas Pragola bagaimana dengan r59 apakah masih berjalan dengan baik??


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 21 Oct 2013, 23:41

anbel wrote:@Mas Pragola
Dengan R70 setelah dicoba menggunakan YTD Video Downloader hasil download sesuai file yg kita harapkan, cuma file tsb tidak tercache, dalam arti kalau kita mendownload file yang sama akan terhubung ke server asli tidak mengambil cache dari proxy.
Mas Pragola bagaimana dengan r59 apakah masih berjalan dengan baik??
Masih mas :)
Dan sebaiknya kita fokus pada DownloanHelper -nya mozilla saja.


User avatar
fida
Posts: 30
Joined: 08 Mar 2013, 03:05

Post by fida » 22 Oct 2013, 06:51

@Mas Pragola
ternyata benar mas,punya saya sudah normal kembali kemarin error pakai ReadBackwards karena saya lupa masukin referer_log di squid.conf-nya lalu kalo pakai ini kembali apa masih perlu pakai crontab mas..
terimakasih atas petunjuknya mas


User avatar
SyaifuddinJW
Posts: 152
Joined: 22 Feb 2010, 10:59
Contact:

Post by SyaifuddinJW » 22 Oct 2013, 08:00

q_p wrote:@SJW
Dhe, log yang dimaksud ini log squid (access.log) yang berkaitan dengan aktivitas DownloadHelper, atau log-nya DownloadHelper yang ter-install di kompi klien ? Soale, dari konpi klien saya cari2 tdk ada log-nya DownloadHelper ...
log yg dari access.log namun khusus yg digunakan oleh downloader tersebut


User avatar
riophone
Posts: 34
Joined: 21 Mar 2013, 21:40
Location: Medan, Indonesia

Post by riophone » 22 Oct 2013, 08:35

Jadi bingung kalau lihat log access.log youtube, yang ditangkap "stream_204" atau "videoplayback?"
Attachments
Screenshot from 2013-10-22 08:19:21.png
Screenshot from 2013-10-22 08:19:21.png (375.25 KiB) Viewed 1455 times


User avatar
riophone
Posts: 34
Joined: 21 Mar 2013, 21:40
Location: Medan, Indonesia

Post by riophone » 22 Oct 2013, 11:17

Access.log (versi r59) dari aktifitas download helper :
[spoiler]AWAL
1382414489.317 9 127.0.0.1 TCP_MEM_HIT/302 1034 GET http://r4---sn-xmjxajvh-jb3e.c.youtube.com/videop
layback?fexp=912307%2C939108%2C913568%2C916623%2C924616%2C924610%2C907231&ms=au&ipbits=8&mv=m&itag=36&ip=1
12.215.66.71&source=youtube&upn=vnsvLDcJTZg&cp=U0hXR1RPTl9ITkNON19MSVJHOkdLQ2dIbElKb282&burst=40&algorithm
=throttle-factor&expire=1382440634&pcm2fr=yes&sver=3&id=bb0de28cf7718acc&mt=1382414375&sparams=algorithm%2
Cburst%2Ccp%2Cfactor%2Cid%2Cip%2Cipbits%2Citag%2Cpcm2fr%2Csource%2Cupn%2Cexpire&factor=1.25&key=yt5&signat
ure=92256E1CECADE1764AEFF1010D9A4DAC2666791C.1244822BA9F3C3ACC07067A00F9BB860FC95257A - NONE/- text/html

AKHIR
1382414645.241 155866 127.0.0.1 TCP_MISS/200 11674813 GET http://r4---sn-30a7dn7e.c.youtube.com/videoplayb
ack?sver=3&source=youtube&factor=1.25&key=yt5&ip=112.215.66.73&sparams=algorithm%2Cburst%2Ccp%2Cfactor%2Ci
d%2Cip%2Cipbits%2Citag%2Cpcm2fr%2Csource%2Cupn%2Cexpire&itag=36&pcm2fr=yes&cp=U0hXR1ROUV9ITkNON19MSFVFOkNo
T3lEVzdQNVcw&upn=oKNSKpm7kyA&burst=40&fexp=923901%2C922223%2C914060%2C916623%2C902547%2C924616%2C924610%2C
907231&algorithm=throttle-factor&ipbits=8&expire=1382433434&id=bb0de28cf7718acc&signature=A9C1808DF3E06BF8
9DC11C3CA8569E24026801F2.B61CA0273DC585E3D78264365E2900060E2F0204&redirect_counter=1&cms_redirect=yes&ms=n
xu&mt=1382411113&mv=m - DIRECT/173.194.22.9 video/3gpp[/spoiler]

Untuk Versi r72 menyusul setelah isi pulsa (habis quota)


User avatar
q_p
Posts: 3109
Joined: 14 Oct 2012, 13:01
Contact:

Post by q_p » 22 Oct 2013, 12:10

@fida
Kalau menggunakan ReadBackwards tidak usah ada crontab. Sedangkan r58, r70 dan r72 sudah tidak menggunakan ReadBackwards lagi.

@riophone
Yang berkaitan dengan "(ptracking|stream_204|player_204|gen_204)" waktu saya coba ditempat saya menggunakan r58 dan r70 hasilnya juga masih miss. ini saya kutipkan dari halaman 85
stream_204 wrote:1381831604.307 264 192.168.0.100 TCP_MISS/204 277 GET http://s.youtube.com/stream_204?vps=280.627:PL&scoville=1&df=280.627:626&fmt=134&docid=pDURt4sE9Is&ns=yt&ei=mhJ
dUsSsKKqamQWUqoHwAw&bwm=280.627:2715364.000:0.233&cpn=ZtTe9xU_wfIZH5Yb&event=streamingstats&el=detailpage&bh=280.627:49.920 - DIRECT/118.98.111.20 text/html
Kasus ini, kita tunggu saja penjelasan dari mas SJW.

@SJW
Ntar malam Dhe, nunggu warnet tutup saya kerjakan (pakai r70/r78) :)


Post Reply

Who is online

Users browsing this forum: No registered users and 26 guests