Style Boy

Style Boy

Üye
19.09.2008
Acemi Er
48
Hakkında

  • amvo virüsü - amvo virüsü nasıl silinir - amvo virüs temizleme
    AMVO İÇİN KESİN ÇÖZÜM

    Yardımcı Doküman: Bad-Dua

    Şimdi arkadaşlar bilgisayarı açtığınızda karşınıza bir AMVO.EXE diye uyarı gelirse, elbette ki panikleyeceksiniz ama bu yazımı okumuşsanız paniklemenize gerek kalmadı.

    googleden amvo diye aratıp binbir çeşit yolu da deneyebilirsiniz benim gibi. Ama hiçbir biri aşağıda anlatacağım kadar sağlam olmaz.

    google'den combofix diye aratırsanız da olur, aşağıdaki vereceğim bilgileri tatbik etseniz de olur. Korkmayın bu amvo'ya haddini bildirecez.

    ComboFix (XP, Vista)

    Özel Temizleme Aracını masaüstünüze buradan indiriniz.
    Alternatif-1, Alternatif-2, Alternatif-3

    * ÖNEMLİ: Bilgisayarınız normal kipte açıkken güvenlik yazılımlarınızı geçici olarak devre dışı bırakın.

    * Unutmayın aracı masaüstünden çalıştırmalısınız.

    * ComboFix.exe dosyasına çift tıklayarak programı çalıştırın. Vista kullanıyorsanız yazılım üzerinde sağ tıklayarak "Yönetici Olarak Çalıştır"a basarak çalıştırın.
    * Karşınıza bir uyarı penceresi gelecek. Çıkan tüm uyarılara "Evet" veya "Yes" deyin. İşlemin bitmesini bekleyin.

    * Bu aşamada klavye veya mouse'a dokunmayınız. Tarama işlemi tamamlandıktan sonra karşınıza bir metin penceresi gelecek.

    * Sonuç olarak size bir rapor dosyası verecek. "C:\combofix.txt"
    bu dosyayı HijackThis raporunuz ile beraber gönderseniz de olur, göndermeseniz de.

    Püf noktası olarak, klasör seçeneklerini isterseniz tüm dosyaları göster diyebilirsiniz. O an açık olan ne varsa kapatınız. Açık dosyalarınız varsa Kaydediniz. Virüs programlarınızı vs. devre dışı bırakınız.


    İkinci kezdir AMVO illetinden kurtuluyorum. NOD32 yüzümü kara çıkardı. Dün indirdiğim Kaspersky 2009'u test edip sonucu da buraya yazarım.

    Alıntıdır..
#23.09.2008 23:38 0 0 0
  • Konu: ASP ile SEO
    ASP de .html linkler için 404 hatası kullanılır. mantık şudur, o adres aslında olmadığı için 404 hata sayfası gösterilir. biz bu 404 hata sayfasını kendi 404.asp mizle değiştirerek linkteki bilgileri alıcağız. ve böylece hata sayfası çıktığında istediğimiz yere yönlendirebileceğiz.
    Ana mantık bu. Şimdi hafiften kodlamaya geçelim.
    ilk olarak 404.asp mizi oluşturalım..
    linkler domain.com/video-269-Seoyu-kapicam-ben.html tarzında olsun.
    Yani ilk kızım video kategorisi olduğunu , 2. kısım id i , 3. kısım ismi versin.
    404.asp

    <%
    set adres = Request.ServerVariables("QUERY_STRING")
    bolum = split(adres,"/")
    istedimiz=bolum(3)
    istedimiz=split(id,"-")
    ne=istedimiz(0)
    id=istedimiz(1)
    %>

    404.asp bu haldeyken domain.com/video-269-Seoyu-kapicam-ben.html linkindeki video kısmını <%=ne%> ile,296 kısmını <%=id%> ile aldık. ismi almamıza gerek yok zaten
    şimdi bu aldıklarımızı nasıl kullanıcağımıza geldik.
    mesela şöyle yaparsak

    <%
    set adres = Request.ServerVariables("QUERY_STRING")
    bolum = split(adres,"/")
    istedimiz=bolum(3)
    istedimiz=split(id,"-")
    ne=istedimiz(0)
    id=istedimiz(1)
    %>
    <% if ne="video" then %>
    <%
    set pp=server.createobject("adodb.recordset")
    pp="select * from seyret where kimlik=" &id
    pp.open sqll,baglanti,1,3
    %>
    <%=pp("videodb")%>
    <% else %>
    video kategorisi dışındaki kategori.. şuanda bu kdr kasmadım abii =)
    <% end if %>

    peki şimdi ne yaptık. <%=ne%> den video geliosa video sayfamı göster dedik. seyret tablosundaki kimliği <%=id%> e eşit olan veriyi çektik..
    <%=ne%> den video gelmiosa "video kategorisi dışındaki kategori.. şuanda bu kdr kasmadım abii =)" yazdırdık. siz bunun yerine if leri arttırarak başka kategorilerin verisini sunucaksınız.
    peki herşey güzelde domain.com/video-269-Seoyu-kapicam-ben.html şeklinde linkleri nsl oluşturucam?
    buda basit.
    şöyle bir filtre koyuyoruz asp sayfamızın başına

    <%
    Function cevir(metin)
    metin = Replace(metin,"ş","s")
    metin = Replace(metin,"Ş","s")
    metin = Replace(metin,".","")
    metin = Replace(metin,",","")
    metin = Replace(metin,"-","")
    metin = Replace(metin," ","-")
    metin = Replace(metin,"!","")
    metin = Replace(metin,"(","")
    metin = Replace(metin,")","")
    metin = Replace(metin,"'","")
    metin = Replace(metin,"ğ","g")
    metin = Replace(metin,"Ğ","g")
    metin = Replace(metin,"İ","i")
    metin = Replace(metin,"ı","i")
    metin = Replace(metin,"ç","c")
    metin = Replace(metin,"Ç","c")
    metin = Replace(metin,"ö","o")
    metin = Replace(metin,"Ö","o")
    metin = Replace(metin,"ü","u")
    metin = Replace(metin,"Ü","u")
    metin = Replace (metin ,"`","")
    metin = Replace (metin ,"=","")
    metin = Replace (metin ,"&","")
    metin = Replace (metin ,"%","")
    metin = Replace (metin ,"!","")
    metin = Replace (metin ,"#","")
    metin = Replace (metin ,"<","")
    metin = Replace (metin ,">","")
    metin = Replace (metin ,"*","")
    metin = Replace (metin ,"And","")
    metin = Replace (metin ,"'","")
    metin = Replace (metin ,"Chr(34)","")
    metin = Replace (metin ,"Chr(39)","")
    cevir = metin
    End Function
    %>

    böylece cevir filtresinden "seoyu kapıcam ben" i geçirdiğimizde "Seoyu-kapicam-ben" diye çıkar. mesela örnek asp link

    domain.com/video-<%=pp("kimlik")%>-<%=cevir(pp("isim"))%>.html

    peki 404.asp i nasıl hata sayfası olarak ayarlarım?
    plesk panel için anlatıyorum. soran olursa iis den ayarlamayıda yazarım.
    plesk panelde web dizinlerine giriyoruz. ordan hata sayfalarına giriyoruz. 404 hatasını buluyoruz. 2. sayfada da olabilir ilk sayfada bulamazsanız. girip /404.asp yazıyoruz. tabi bunu yazdıysak 404.asp i domain.com/404.asp şekildeki gibi ana dizine atmış olmanız gerek.. daha sonra orda url i seçim. tamam diyoruz. bu kadar..

    Bigilerinden Dolayı webmasterturk Ekibine Tesekür Ederim
#20.09.2008 00:22 0 0 0
  • Seo Spam , arama motoru optimizasyonu yaparken insanların istemediği sonuçların onlara sunulması pahasına ve web sitesinin yönlenimini hiçe sayarak sadece trafik kazanmak amacıyla arama motoru optimizasyonu yapmak ve bu optimizasyona göre düzenlenmiş site ve URL lerin arama motorları tarafından indekslenmesini sağlamaktır.

    Ahlaki bir kaygınız yoksa, tek kriter kazanç ise Seo Spam düşünülebilir tabii ki:

    spam yapın hem de abartın spam ı google a yine de banlanmayabilirsiniz ve spam ı bıraktığında işe yarar bir siteniz var ise spam sız hit alabilirsiniz google dan ve google dışında da siteniz ziyaretci alıyordur zaten.

    spam sız seo ile başarısız olunan örnekler net te çoğunlukta.
    spam lı seo lu başarı örnekleri de nette bir o kadar fazla

    yukarıdaki ifadeleri taraf tarafa bölerseniz spam kalır geriye :)
    ben herhangi bir sitemde organize bir şekilde yapmadım bunu; ama Seo Spam dan hiç hit elde etmediğimi de söyleyemem, kimse söyleyemez

    Bu iş zaten çok organize bir çalışma gerektirir. yani yıllarca uğraşıp belirli bir yere getirdiğiniz siteye günde 2-3bin hit kazandırmak için emekleri heba etmeye gerek yok. yapınca günde 20-30-100 bin ziyaretci gelmeli. sonra google banladığında bu site kaydadeğer bir içeriğe sahipse zaten tekrar banı kaldırana kadar bu ziyaretcilerin büyük çoğunluğu kullanmaya devam edebilir sitenizi.
#20.09.2008 00:10 0 0 0
  • "Backlink" web sitenizin içeriğinizi desteklemek üzere verilmiş link demektir:

    back link:
    sırt veriyor sizin sitenize link veren kişi, yani arka çıkıyor omuz atıyor :)
    adam size sizin ona verdiğiniz link karşılığında link verirse olmaz,
    sitenizin reklamını yayınlatırsanız bir yerde para verip yine sizin sitenizin içeriği beğeni kazanmış olmuyor

    google ın derdi : sitelerin çeşitli arama kriterlerinde hangi sıra ile çıkmaları gerektiğini, matematiksel olarak ve sitelerin gerçekteki beğenilmişlikleri ve buna atfedilen bir değer ile tespit etmektir.

    google bunu link metninden gramatik olarak mı anlıyor yoksa sadece matematiksel olarak mı yapıyor google anlamak güç, ama en önemlisi google kesinlikle bir nebze de olsa başarılı oluyor. hatta spam siteleri arama sonuçlarından etkin bir şekilde çıkarabilmek mümkün olsaydı kesinlikle daha kolay bir şekilde bu olay çözülecekti.
    (inanmazsınız ama aklıma bu konu ile ilgili sayısız çözüm geliyor ve bunların google tarafından neden yapılmadığını anlayabilmiş değilim. belki de yapıyorlar ve bunu anlamayacağımız şekilde yapıyorlar; ya da yapmak istemiyorlar. ama her durumda standart arama kriterleri ile bir şey aramak zor artık google da. "yabanmersini" gibi bir şey aratın (inanın denemedim bile) alakasız bir şeyler çıkabilir, "yabanmersini ekstre" gibi ararsanız belki bir şeyler bulursunuz.

    Googleın zengin olma aracı olarak kullanılabilmesi için şunu yapmak lazım :

    iyi, işe yarar site..

    bunu yapınca,
    - insanlar size karşılıksız olarak link verirler,
    - google arama sonuçları ile sitenize ulaşan kişiler olur ve bunu yaparken sitenizi arama sonuçlarında gördüklerinde açıklamalara bakarak tıklayıp tıklamamaya karar verirler. bu sonuçlarda çıkmak önemli belki ama tıklanmak daha önemli çünkü bu kendini besleyen bir süreçtir.
    - insanların google a sizi şikayet etme ihtimali azalır

    Yine de emeksiz istemek gibi bir huyunuz varsa, ki Aşık Veysel e göre "Emeksiz istemek dermansız derttir" o zaman bilimum SEO tekniği uygulanabilir ve karşılıksız olarak ve talep ile reklam şeklinde "FAKE backlink" kazanılabilir. Ama bence "sahici backlink" esastır ve kıymeti olan bir şeydir.
#20.09.2008 00:09 0 0 0
  • rama Motoru Ajanlari (Search Engine Spiders)

    Özet
    Internet günden güne büyüyor, milyonlarca dosya ve resim barındırıyor. Bununla birlikte insanlar bilgilere ulaşabilmek için çevrimiçi servislere bel bağlıyorlar. Tabi ki bu bilgilere en sağlıklı ulaşabilecekleri servisleri tercih ediyorlar. Bu nedenle Arama Motorları büyük önem kazanıyor. Arama motorları dediğimizde ilk akla gelen internet tarayıcımızda gördüğümüz sayfa olsa da, aslında işin arka tarafında birçok servis çalışmakta. Bu servisler kullanıcıların ulaşacağı verilerin sağlıklı, taze ve mantıklı olmasını sağlıyor. Arama Motoru Ajanları (Search Engine Agents) da bu servislerin bel kemiğini oluşturuyor. Temel olarak aranacak olan bilgileri tarayıp, düzgün ve belirli bir mantık çerçevesinde kaydediyorlar. Bu yazıda Arama Motoru Ajanlarının çıkış nedenleri ve mimarisi hakkında bilgiler bulunmaktadır.

    Giriş
    Bizim arama motorlarında arama yapmamızdan önce o dosya ve belgelerin bir şekilde bulunup kaydedilmesi gerekiyor. Bunlar için Ajanlar veya örümcekler isminde özel yazılımlar geliştiriliyor. Bu yazılımlar internet adreslerini ve içeriklerini kaydediyorlar. Bu kayıtların yapıldığı sayfalardaki linkleri takip ederek sayfadan sayfaya geçiyorlar. Böylelikle milyonlarca siteye ulaşabiliyorlar. Bu programlar otomatik olarak her bulduğu linkleri gezmektedirler.

    Bu ajanların bulduğu web adreslerinin içeriğini kaydeden başka ajanlarda mevcut. Bu ajanlarda kaydettikleri verileri belirli mantıkta sıkıştırıp saklamaktadır.

    Bu ajanların dışında siteler için öncelik sırası belirlemek amacıyla çeşitli ajanlar çalışmaktadır. Bunlar o siteye ne kadar link verildiği, bu linklerin karşılığının olup olmadığını karşılaştırarak o site için bir önem puanı vermektedir. Bu sayede önemli görülen siteler aramalarda üst sıralarda yer alabilmektedir.

    Ajanlar Nasıl Çalışır?
    Ajanlar arama motorlarının birer parçası olarak arkaplanda çalışmaktadır. Performans ve güvenilirlik en önemli noktalar. Ajanların çalışma performansı internet bağlantısının hızına ve bağlandığı sitenin hızına göre değişmektedir. Temel olarak ajanlar aşağıdaki adımları takip etmektedir:

    Sayfayı tamamen kaydet.
    Kaydedilen sayfadayı parçalara ayırarak içerisindeki tüm linkleri al.
    Alınan tüm linkler için işlemi tekrar et.
    Ajan herhangi bir Internet veya Intranet adresinden başlayarak sayfaları kaydeder. Her kaydettiği sayfada yeni adresler ile karşılaştığı için sürekli olarak kayıt işlemine devam edecektir.

    Problemler
    Internetin büyüme hızı ve web sayfalarının sayının artması altında örümceklerimiz ezildi.Büyük çapta hizmet gösteren ajanlar yüksek sayıda web adresi (URL) olması sebebiyle çeşitli problemlerle karşılaşmaya başladılar. Hazır olan tüm sitelerini gezip, taramak ve bunları hafızaya almak çok zor olmaya başladı. Diğer bir yandan bu toplanan verileri diskte yazmakta performans açısından çokda verimli olmamaya başladı. Milyarlarca web sitesini kaydedebilmek için terabytelarca iyi yönetilen disk alanı gerekiyor.

    Evre Takası
    Sağladıkları avantajlar ile birlikte ajanlarımızın yol açtığı sorunlarda meydana gelmeye başladı. Aynı anda birçok sayfası kaydedilen bir sunucuda fazladan bir yük binmeye ve yavaşlamalara yol açmaya başladı. Bu nedenle daha kibar ajanların hazırlanması gerekti, aynı anda sunucudan fazla veri çekmemeleri için.

    Ajanların aynı sunucu üzerinden aynı anda veri çekmesini düzenlemek amacıyla "Evre Takası (Phase Swapping)" metodunu kullanıyoruz. Takas etmek problemin tek çözümü olmasa da başarılı çözümlerden bir tanesi.

    Aşağıdaki şekildeki gibi aynı sunuculardaki verileri parçalara ayırıyoruz. Daha sonra aynı satırda olan adreslerden sadece bir tanesine gidip, diğer satıra gidiyoruz. Zamanımız arttığı için sütun sayımızı da artıyoruz. Bunun neticesinde aşağıda ki şekilde görülen çapraz şekilde giden bir yapı oluşuyor. Bu yapıyla birlikte aynı anda aynı sunucu üzerinden veri çekmemiş oluyoruz.

    Evre Takası

    Site Adresi Sıkıştırma (URL Compression)

    Ajanlarımız tüm adresleri kaydetmek durumundalar. Bunun için bu adresleri saklarken bir sıkıştırma algoritması kullanmamız gerekiyor, bu algoritma hem hızlı saklanabilmeli, aranabilmeli aynı zaman hızlı geri dönüşüm sağlayabilmeli.

    Kullanacağımız algoritma sunucuların birbirleriyle bağlanma ilkelerine benziyor. Algoritmamız da site adresleri kök (root) ve kuyruk (tail) olmak üzere ikiye ayrılıyor. Bir kök dizinin altında ağaç yapısı şeklinde kuyruklar sıralanıyorlar, bu kuyruklar sıralanırken çeşitli köklere bağlanabiliyorlar. Aynı site için birden fazla adres olabileceği içinde yansılar ayrıca belirtiliyor, böylece farklı adreste yayın yapan iki farklı site 2 kez kaydedilmemişte oluyor.

    Arama Motorları ;Bilgi Tekrarları

    Anahtar Kelimeler
    Örümcek (Spider), İndeksleyici (Indexer), Depolama (Repository), Döküman İndeksleyici (Document indexer), Robot

    Kaynaklar
    * High Performance Large Scale Web Spider Architecture, Kasom Koht-arsa ve Surasak Sanguanpong
    * A Bandwidth Friendly Search Engine, Clare Bradford ve Ian.W.Marshall
    * Exploiting a Search Engine to Develop More Flexible Web Agents, Shou-de Lin ve Craig A. Knoblock
    * How search engine work and a web crawler application, Monica Peshave
    * http://www-db.stanford.edu/~backrub/google.html

    *** Bu makale alıntıdır. Hasan Yaşar'a çok teşekkür ederiz. Orijinal makaleyi aşağıdaki linkten edinebilirsiniz:
    Arama Motoru Ajanlari (Search Engine Spiders)
#20.09.2008 00:08 0 0 0
  • Sitenizi açtınız ya da uzun süredir içeriğini oluşturmaktasınız.
    Ancak Adsense gibi bir çok reklamverenin reklamının bulunduğu bir platform olmadan reklam bulmak ve bu reklamları verimli bir şekilde yönetmek gerçekten çok ta kolay değil.
    Kendi bilgisayarınızdan ve IP numaranızdan başvuru yapılması önemli.
    Sitenize kabul gelip te gerekli kodları koyduktan sonra reklamlar çıktığında asla bu reklamlara tıklamamalısın. Tıklarsan atılma ihtimalinizin yüksek olduğunu unutmayın !

    Başvuru için gerekenler:
    1. https://www.google.com/adsense/ adresine gir.
    2. Sayfanın ortasındaki "Başvurmak için Buraya Tıklayın" yazısına tıkla.
    3. Açılan sayfada Hesap Türü olarak (eğer 20 çalışandan fazla istihdam seviyesi olan bir Şirket değilseniz) "Kişisel" seçimini aktif yapmalısınız.
    4. "Web sitenizin URL'si" seçeneğine en aktif bilinen PR değeri yüksek ve en önemlisi özgün sitenizin adresini yazmanızı öneririz.
    5. "Web Sitenizin Dili" olarak sitenizin gerçek dilini giriniz. Yanıltmak için veya başka bir amaçla yabancı birdil seçmenizin bir faydası olmayacağını, aksine reddedilmenize neden olabileceğini unutmayın.
    6. "İrtibat Bilgileri" olarak gerçek ve kısa vadede değiştirmeniz gerekmeyecek bilgileri vermelisiniz. Bu bölümde daha önce hile nedeniyle hesabı kapatılmış bir kişinin vermiş olduğu adresin verilmesi direkt olarak başvurunun reddedilmesine neden olacaktır.
    7. Formun kullanıcı adı ve şifre bölümlerinin de tamamlanması ile "Bilgileri Gönder" butonuna basabilirsiniz.

    Tebrikler başvurunuzu tamamladınız.

    Başvurunuza çoğunlukla 1-2 gün içerisinde ancak en çok 2 ay içerisinde bir yanıt alacaksınız. Yanıtın olumlu olması durumunda Hesabınıza girerek gerekli kodları alıp sitenize ekleyerek kazanmaya başlayabilirsiniz.

    Bol Kazançlar dileriz
#20.09.2008 00:06 0 0 0
#20.09.2008 00:04 0 0 0