youtube-dl --extract-audio --audio-format mp3 -o "%(title)s.%(ext)s" <url to playlist> Güncellenmiş: youtube-dl -i --extract-audio --audio-format mp3 -o "%(playlist_index)s-%(title)s.%(ext)s" '<url to playlist>'
admin tarafından yazılmış tüm yazılar
2017 Zeytin Hasadı
Bu sene de hemen her sene olduğu gibi yazın 3 4 ay toprağa damla su düşmedi. Eylül sonu, Ekim başından itibaren günde 2 ağacı 15 dk kadar anca sulayabildim.
22 Ekim 2017 günü komşularımın hasadı bittiktan sonra Recep ve eşi Serpil benim zeytinliğe geçtiler. Ayın 23. de hasat devam etti. Recep’in getirdikleri ve benim yaygılarımla oldukça geniş bir alanı yaygıyla kapatabiliyorduk.
Hasat 1.5 gün sürdü ama 2. günün sonunda arızalanan motor sebebiyle en verimlilerinden 4 5 ağaç kaldı. Silkim motoru arızalanmasa belki ucu ucuna bitirebilirdik… Zaman zaman Furkan, Tuncay ve Tuğba’nın yardımlarıyla oldukça verimli gittik.
Recep sağolsun keten çuvalları neredeyse azına kadar doldurdu. Topladığımız 6.5 keten çuvalı (520 kilo geldi) Recep’le beraber tüm koltukları yatırılmış arabaya yükledik.
Arabamız yola çıkmaya hazır.
Sabah ilk partiyi yakalamak için 7 gibi Küçükkuyu Tariş’in yolunu tuttum.
Geceden ve sabah güzel bir yağmur yağdı. Çuvallar indirildi:
Yaklaşık 3 saat sonra yağım hazır: 0.9 asit.
Bu da Küçükkuyu Tariş Zeytinyağı fabrikası.
3 Kasım 2017’de kalan 4 5 ağacı silkmeye başladım. Arada Toprak’la dili burna değdirmece oynadık.
Hasat epey yoruyor…
Zeytinler…
Çuvala giriyor.
Bu da ikinci parti zeytin hasadı. 4 yarım keten çuval. Bunlar da 160 kg geldi. Asidi 1.2 çıktı.
Son yağımı alıp dönerken harika bir manzara bana eşlik ediyordu.
Kdenlive ile bazı temel işleri gerçekleştirme
Video üzerinde kesme işlemleri yapmak için:
Select track
Set end cutting point
Cut clip (Shift+R)
Set start cutting point
Cut clip (shift+R)
Select portion to delete
Press delete
Right-click in empty area
Click “remove space”
rkhunter ve chkrootkit ile güvenlik taraması
chkrootkit kurulum ve taraması:apt install chkrootkit
chkrootkit
rkhunter kurulum ve taraması:apt install rkhunter
rkhunter --update
rkhunter --checkall
Linuxta belli bir tarihten önce değiştirilimiş dosyaları bulma
find . -mtime -1
find . -mtime -1 | xargs tar --no-recursion -czf myfile.tgz
Sırtı ile balık avı
Yüzey Sırtısı:
Yüzey sırtısında ip veya misina yaklaşık 50 -100m salınır.
Yüzey sırtısı için şema:
Rapala bağlama:
Maldet ile kötü yazılım taraması
Ubuntu üzerinde maldet kötü yazılım taraması yapmak için
wget http://www.rfxn.com/downloads/maldetect-current.tar.gz
cd /usr/src
tar -xvf maldetect-current.tar.gz
cd maldetect*
./install.sh
maldet -a /path
ClamAV ile Ubuntu’da kötü yazılım belirleme
Sisteminize yanlış izinler veya başka bir sebeple kötü yazılım yüklenmişse bunu ClamAV ile tespit etme şansınız var.
Bunun için önce sistemimizi güncelleyip, clamav yüklememiz gerekiyor:sudo apt-get update
sudo apt-get install clamav
Kötü yazılım belirleme veritabanını güncellemek içinsudo freshclam
kullanabilirsiniz. Ancak kurulum sonrası kendisi otomatik güncelleme yapıyor.
Mesela home dizini altındaki tüm dosyaları aratmak için:clamscan -r /home
Fakat bu çok çıktı üretiyor.
Özet almak için:clamscan -r --bell -i /home/
komutunu kullanmak daha iyi bir yaklaşım olabilir.
UFW ile Firewall
Ubuntu’da UFW ile firewall kurmak için:sudo apt-get install ufw
UFW nin aktif olup olmadığını anlamak ve aktifse kuralları görmek için:sudo ufw status verbose
Output:
Status: inactive
Dışarıdan gelen tüm istekleri reddedip, dışarıya giden tüm isteklere izin vermek için:sudo ufw default deny incoming
sudo ufw default allow outgoing
Mesela ssh portunu açmak için:sudo ufw allow 22
veya web sitenize sürekli request gönderen SemrushBot/1.2 botunu subnet olarak engellemek içinsudo ufw deny from 46.229.168.0/24
şeklinde kullanabilirsiniz.
UFW yi aktive etmek için:sudo ufw enable
Yandex botun performansı etkilememesi
Yandex çok hızlı bir şekilde sitenizi indexliyor ve bu web sunucunuzda önemli bir yoğunluk yaratıyorsa robot.txt içine aşağıdaki satırları ekleyebilirsiniz:
https://yandex.com/support/search/robots/request-rate.html
User-agent: Yandex
Crawl-delay: 2 # specifies a 2 second timeout
User-agent: *
Disallow: /search
Crawl-delay: 4.5 # specifies a 4.5 second timeout