TechBlogSD - Alt for WordPress- og WEB -utvikling
WEB- og WordPress -instruksjoner, nyheter, anmeldelser av temaer og plugins

Hvordan blokkere IP og brukeragenter i WordPress?

4

En av de viktige aspektene ved å sikre WordPress -nettstedet ditt er å overvåke IP -adressene til brukere og brukeragenter som får tilgang til nettstedet ditt. Det er mange situasjoner du må blokkere IP -adressen til en bruker når du kjører en WordPress -blogg. Nedenfor er noen av scenariene når det skjer kontinuerlig behov for blokkerende handling fra din side:

  • Bruker eller bot prøver å få tilgang til påloggingssiden din.
  • Bruker eller bot forlater spam -kommentarer.

Hvordan overvåke skadelige IP -adresser?

For å blokkere de skadelige IP -ene må du først overvåke trafikkaktivitetene på nettstedet ditt. Du kan gjøre dette på servernivå eller bruke plugin og monitor på admin dashbordet.

Overvåking av servernivå

Logg deg på vertskontoen din og naviger til cPanel. Se under statistikkdelen for å sjekke verktøyene som er tilgjengelige for å overvåke trafikken på nettstedet ditt. Awstats er et av de populære statistikkverktøyene som tilbys av nesten alle de populære hostingfirmaene. Klikk på ikonet og velg nettstedet ditt for å se trafikkdataene.

Hvordan blokkere IP og brukeragenter i WordPress?

Åpne Awstats fra cPanel Hosting Account

Få hele listen over IP -adresser til vertene som genererer trafikk til nettstedet ditt ved å klikke på "Full List" -alternativet under "Verter" -delen.

Hvordan blokkere IP og brukeragenter i WordPress?

Liste over verts -IP -er som får tilgang til nettstedet ditt

På samme måte får du hele listen over roboter som gjennomsøker nettstedet ditt ved å klikke på "Full List" -alternativet under "Roboter / edderkopper besøkende" -delen.

Hvordan blokkere IP og brukeragenter i WordPress?

Få robotliste fra Awstats

Disse listene inneholder listen over IP -adresser som får tilgang til nettstedet ditt, og analysering av listen viser deg de skadelige IP -adressene.

Blokkerer IP -er fra cPanel Hosting -konto

Når du finner ut listen over IP -er som prøver å treffe serveren din uten gyldige grunner, er neste trinn å blokkere dem. Gå til cPanel -kontoen din og klikk på "IP Deny Manager" eller et lignende alternativ.

Hvordan blokkere IP og brukeragenter i WordPress?

Åpne IP Deny Manager i cPanel Hosting

Legg til IP -adressene for å nekte tilgang til nettstedet ditt. Du kan legge til individuelle IP -er, rekkevidde, underforstått område og CIDR -format med nettverksmaske.

Hvordan blokkere IP og brukeragenter i WordPress?

Blokkerer IP -adresse ved hjelp av IP Deny Manager

Blokkerer roboter med .htaccess

Dessverre lar ingen verktøy i cPanel deg direkte blokkere brukeragenter eller dårlige roboter. Du må bruke direktiver i .htaccess -filen for å blokkere de identifiserte robotene. I tillegg til listen du fant fra Awstats robots tilgangsliste, er det også mange ferdige lister over dårlige roboter tilgjengelig online. Nedenfor er en av listene som er tilgjengelige på Github, som du kan kopiere og legge til under .htaccess -fil. Dette er en uttømmende liste som blokkerer mange kjente roboter sammen med Baidu Spider og Yandex bot. Lær mer om hvordan du redigerer .htaccess -filen på WordPress -installasjonen.

# START Blocking Bad Bots Options All -Indexes RewriteEngine on # Block Bad Bots & Scrapers SetEnvIfNoCase User-Agent "Aboundex" bad_bot SetEnvIfNoCase User-Agent "80legs" bad_bot SetEnvIfNoCase User-Agent "360Spider" bad_bot SetEnvIfNoCase User-Agent "^Java" bad_bot SetEnvIfNoCase User-Agent "^Cogentbot" bad_bot SetEnvIfNoCase User-Agent "^Alexibot" bad_bot SetEnvIfNoCase User-Agent "^asterias" bad_bot SetEnvIfNoCase User-Agent "^attach" bad_bot SetEnvIfNoCase User-Agent "^BackDoorBot" bad_bot SetEnvIfNoCase User-Agent "^BackWeb" bad_bot SetEnvIfNoCase User-Agent "Bandit" bad_bot SetEnvIfNoCase User-Agent "^BatchFTP" bad_bot SetEnvIfNoCase User-Agent "^Bigfoot" bad_bot SetEnvIfNoCase User-Agent "^Black.Hole" bad_bot SetEnvIfNoCase User-Agent "^BlackWidow" bad_bot SetEnvIfNoCase User-Agent "^BlowFish" bad_bot SetEnvIfNoCase User-Agent "^BotALot" bad_bot SetEnvIfNoCase User-Agent "Buddy" bad_bot SetEnvIfNoCase User-Agent "^BuiltBotTough" bad_bot SetEnvIfNoCase User-Agent "^Bullseye" bad_bot SetEnvIfNoCase User-Agent "^BunnySlippers" bad_bot SetEnvIfNoCase User-Agent "^Cegbfeieh" bad_bot SetEnvIfNoCase User-Agent "^CheeseBot" bad_bot SetEnvIfNoCase User-Agent "^CherryPicker" bad_bot SetEnvIfNoCase User-Agent "^ChinaClaw" bad_bot SetEnvIfNoCase User-Agent "Collector" bad_bot SetEnvIfNoCase User-Agent "Copier" bad_bot SetEnvIfNoCase User-Agent "^CopyRightCheck" bad_bot SetEnvIfNoCase User-Agent "^cosmos" bad_bot SetEnvIfNoCase User-Agent "^Crescent" bad_bot SetEnvIfNoCase User-Agent "^Custo" bad_bot SetEnvIfNoCase User-Agent "^AIBOT" bad_bot SetEnvIfNoCase User-Agent "^DISCo" bad_bot SetEnvIfNoCase User-Agent "^DIIbot" bad_bot SetEnvIfNoCase User-Agent "^DittoSpyder" bad_bot SetEnvIfNoCase User-Agent "^Download Demon" bad_bot SetEnvIfNoCase User-Agent "^Download Devil" bad_bot SetEnvIfNoCase User-Agent "^Download Wonder" bad_bot SetEnvIfNoCase User-Agent "^dragonfly" bad_bot SetEnvIfNoCase User-Agent "^Drip" bad_bot SetEnvIfNoCase User-Agent "^eCatch" bad_bot SetEnvIfNoCase User-Agent "^EasyDL" bad_bot SetEnvIfNoCase User-Agent "^ebingbong" bad_bot SetEnvIfNoCase User-Agent "^EirGrabber" bad_bot SetEnvIfNoCase User-Agent "^EmailCollector" bad_bot SetEnvIfNoCase User-Agent "^EmailSiphon" bad_bot SetEnvIfNoCase User-Agent "^EmailWolf" bad_bot SetEnvIfNoCase User-Agent "^EroCrawler" bad_bot SetEnvIfNoCase User-Agent "^Exabot" bad_bot SetEnvIfNoCase User-Agent "^Express WebPictures" bad_bot SetEnvIfNoCase User-Agent "Extractor" bad_bot SetEnvIfNoCase User-Agent "^EyeNetIE" bad_bot SetEnvIfNoCase User-Agent "^Foobot" bad_bot SetEnvIfNoCase User-Agent "^flunky" bad_bot SetEnvIfNoCase User-Agent "^FrontPage" bad_bot SetEnvIfNoCase User-Agent "^Go-Ahead-Got-It" bad_bot SetEnvIfNoCase User-Agent "^gotit" bad_bot SetEnvIfNoCase User-Agent "^GrabNet" bad_bot SetEnvIfNoCase User-Agent "^Grafula" bad_bot SetEnvIfNoCase User-Agent "^Harvest" bad_bot SetEnvIfNoCase User-Agent "^hloader" bad_bot SetEnvIfNoCase User-Agent "^HMView" bad_bot SetEnvIfNoCase User-Agent "^HTTrack" bad_bot SetEnvIfNoCase User-Agent "^humanlinks" bad_bot SetEnvIfNoCase User-Agent "^IlseBot" bad_bot SetEnvIfNoCase User-Agent "^Image Stripper" bad_bot SetEnvIfNoCase User-Agent "^Image Sucker" bad_bot SetEnvIfNoCase User-Agent "Indy Library" bad_bot SetEnvIfNoCase User-Agent "^InfoNaviRobot" bad_bot SetEnvIfNoCase User-Agent "^InfoTekies" bad_bot SetEnvIfNoCase User-Agent "^Intelliseek" bad_bot SetEnvIfNoCase User-Agent "^InterGET" bad_bot SetEnvIfNoCase User-Agent "^Internet Ninja" bad_bot SetEnvIfNoCase User-Agent "^Iria" bad_bot SetEnvIfNoCase User-Agent "^Jakarta" bad_bot SetEnvIfNoCase User-Agent "^JennyBot" bad_bot SetEnvIfNoCase User-Agent "^JetCar" bad_bot SetEnvIfNoCase User-Agent "^JOC" bad_bot SetEnvIfNoCase User-Agent "^JustView" bad_bot SetEnvIfNoCase User-Agent "^Jyxobot" bad_bot SetEnvIfNoCase User-Agent "^Kenjin.Spider" bad_bot SetEnvIfNoCase User-Agent "^Keyword.Density" bad_bot SetEnvIfNoCase User-Agent "^larbin" bad_bot SetEnvIfNoCase User-Agent "^LexiBot" bad_bot SetEnvIfNoCase User-Agent "^lftp" bad_bot SetEnvIfNoCase User-Agent "^libWeb/clsHTTP" bad_bot SetEnvIfNoCase User-Agent "^likse" bad_bot SetEnvIfNoCase User-Agent "^LinkextractorPro" bad_bot SetEnvIfNoCase User-Agent "^LinkScan/8.1a.Unix" bad_bot SetEnvIfNoCase User-Agent "^LNSpiderguy" bad_bot SetEnvIfNoCase User-Agent "^LinkWalker" bad_bot SetEnvIfNoCase User-Agent "^lwp-trivial" bad_bot SetEnvIfNoCase User-Agent "^LWP::Simple" bad_bot SetEnvIfNoCase User-Agent "^Magnet" bad_bot SetEnvIfNoCase User-Agent "^Mag-Net" bad_bot SetEnvIfNoCase User-Agent "^MarkWatch" bad_bot SetEnvIfNoCase User-Agent "^Mass Downloader" bad_bot SetEnvIfNoCase User-Agent "^Mata.Hari" bad_bot SetEnvIfNoCase User-Agent "^Memo" bad_bot SetEnvIfNoCase User-Agent "^Microsoft.URL" bad_bot SetEnvIfNoCase User-Agent "^Microsoft URL Control" bad_bot SetEnvIfNoCase User-Agent "^MIDown tool" bad_bot SetEnvIfNoCase User-Agent "^MIIxpc" bad_bot SetEnvIfNoCase User-Agent "^Mirror" bad_bot SetEnvIfNoCase User-Agent "^Missigua Locator" bad_bot SetEnvIfNoCase User-Agent "^Mister PiX" bad_bot SetEnvIfNoCase User-Agent "^moget" bad_bot SetEnvIfNoCase User-Agent "^Mozilla/3.Mozilla/2.01" bad_bot SetEnvIfNoCase User-Agent "^Mozilla.*NEWT" bad_bot SetEnvIfNoCase User-Agent "^NAMEPROTECT" bad_bot SetEnvIfNoCase User-Agent "^Navroad" bad_bot SetEnvIfNoCase User-Agent "^NearSite" bad_bot SetEnvIfNoCase User-Agent "^NetAnts" bad_bot SetEnvIfNoCase User-Agent "^Netcraft" bad_bot SetEnvIfNoCase User-Agent "^NetMechanic" bad_bot SetEnvIfNoCase User-Agent "^NetSpider" bad_bot SetEnvIfNoCase User-Agent "^Net Vampire" bad_bot SetEnvIfNoCase User-Agent "^NetZIP" bad_bot SetEnvIfNoCase User-Agent "^NextGenSearchBot" bad_bot SetEnvIfNoCase User-Agent "^NG" bad_bot SetEnvIfNoCase User-Agent "^NICErsPRO" bad_bot SetEnvIfNoCase User-Agent "^niki-bot" bad_bot SetEnvIfNoCase User-Agent "^NimbleCrawler" bad_bot SetEnvIfNoCase User-Agent "^Ninja" bad_bot SetEnvIfNoCase User-Agent "^NPbot" bad_bot SetEnvIfNoCase User-Agent "^Octopus" bad_bot SetEnvIfNoCase User-Agent "^Offline Explorer" bad_bot SetEnvIfNoCase User-Agent "^Offline Navigator" bad_bot SetEnvIfNoCase User-Agent "^Openfind" bad_bot SetEnvIfNoCase User-Agent "^OutfoxBot" bad_bot SetEnvIfNoCase User-Agent "^PageGrabber" bad_bot SetEnvIfNoCase User-Agent "^Papa Foto" bad_bot SetEnvIfNoCase User-Agent "^pavuk" bad_bot SetEnvIfNoCase User-Agent "^pcBrowser" bad_bot SetEnvIfNoCase User-Agent "^PHP version tracker" bad_bot SetEnvIfNoCase User-Agent "^Pockey" bad_bot SetEnvIfNoCase User-Agent "^ProPowerBot/2.14" bad_bot SetEnvIfNoCase User-Agent "^ProWebWalker" bad_bot SetEnvIfNoCase User-Agent "^psbot" bad_bot SetEnvIfNoCase User-Agent "^Pump" bad_bot SetEnvIfNoCase User-Agent "^QueryN.Metasearch" bad_bot SetEnvIfNoCase User-Agent "^RealDownload" bad_bot SetEnvIfNoCase User-Agent "Reaper" bad_bot SetEnvIfNoCase User-Agent "Recorder" bad_bot SetEnvIfNoCase User-Agent "^ReGet" bad_bot SetEnvIfNoCase User-Agent "^RepoMonkey" bad_bot SetEnvIfNoCase User-Agent "^RMA" bad_bot SetEnvIfNoCase User-Agent "Siphon" bad_bot SetEnvIfNoCase User-Agent "^SiteSnagger" bad_bot SetEnvIfNoCase User-Agent "^SlySearch" bad_bot SetEnvIfNoCase User-Agent "^SmartDownload" bad_bot SetEnvIfNoCase User-Agent "^Snake" bad_bot SetEnvIfNoCase User-Agent "^Snapbot" bad_bot SetEnvIfNoCase User-Agent "^Snoopy" bad_bot SetEnvIfNoCase User-Agent "^sogou" bad_bot SetEnvIfNoCase User-Agent "^SpaceBison" bad_bot SetEnvIfNoCase User-Agent "^SpankBot" bad_bot SetEnvIfNoCase User-Agent "^spanner" bad_bot SetEnvIfNoCase User-Agent "^Sqworm" bad_bot SetEnvIfNoCase User-Agent "Stripper" bad_bot SetEnvIfNoCase User-Agent "Sucker" bad_bot SetEnvIfNoCase User-Agent "^SuperBot" bad_bot SetEnvIfNoCase User-Agent "^SuperHTTP" bad_bot SetEnvIfNoCase User-Agent "^Surfbot" bad_bot SetEnvIfNoCase User-Agent "^suzuran" bad_bot SetEnvIfNoCase User-Agent "^Szukacz/1.4" bad_bot SetEnvIfNoCase User-Agent "^tAkeOut" bad_bot SetEnvIfNoCase User-Agent "^Teleport" bad_bot SetEnvIfNoCase User-Agent "^Telesoft" bad_bot SetEnvIfNoCase User-Agent "^TurnitinBot/1.5" bad_bot SetEnvIfNoCase User-Agent "^The.Intraformant" bad_bot SetEnvIfNoCase User-Agent "^TheNomad" bad_bot SetEnvIfNoCase User-Agent "^TightTwatBot" bad_bot SetEnvIfNoCase User-Agent "^Titan" bad_bot SetEnvIfNoCase User-Agent "^True_Robot" bad_bot SetEnvIfNoCase User-Agent "^turingos" bad_bot SetEnvIfNoCase User-Agent "^TurnitinBot" bad_bot SetEnvIfNoCase User-Agent "^URLy.Warning" bad_bot SetEnvIfNoCase User-Agent "^Vacuum" bad_bot SetEnvIfNoCase User-Agent "^VCI" bad_bot SetEnvIfNoCase User-Agent "^VoidEYE" bad_bot SetEnvIfNoCase User-Agent "^Web Image Collector" bad_bot SetEnvIfNoCase User-Agent "^Web Sucker" bad_bot SetEnvIfNoCase User-Agent "^WebAuto" bad_bot SetEnvIfNoCase User-Agent "^WebBandit" bad_bot SetEnvIfNoCase User-Agent "^Webclipping.com" bad_bot SetEnvIfNoCase User-Agent "^WebCopier" bad_bot SetEnvIfNoCase User-Agent "^WebEMailExtrac.*" bad_bot SetEnvIfNoCase User-Agent "^WebEnhancer" bad_bot SetEnvIfNoCase User-Agent "^WebFetch" bad_bot SetEnvIfNoCase User-Agent "^WebGo IS" bad_bot SetEnvIfNoCase User-Agent "^Web.Image.Collector" bad_bot SetEnvIfNoCase User-Agent "^WebLeacher" bad_bot SetEnvIfNoCase User-Agent "^WebmasterWorldForumBot" bad_bot SetEnvIfNoCase User-Agent "^WebReaper" bad_bot SetEnvIfNoCase User-Agent "^WebSauger" bad_bot SetEnvIfNoCase User-Agent "^Website eXtractor" bad_bot SetEnvIfNoCase User-Agent "^Website Quester" bad_bot SetEnvIfNoCase User-Agent "^Webster" bad_bot SetEnvIfNoCase User-Agent "^WebStripper" bad_bot SetEnvIfNoCase User-Agent "^WebWhacker" bad_bot SetEnvIfNoCase User-Agent "^WebZIP" bad_bot SetEnvIfNoCase User-Agent "Whacker" bad_bot SetEnvIfNoCase User-Agent "^Widow" bad_bot SetEnvIfNoCase User-Agent "^WISENutbot" bad_bot SetEnvIfNoCase User-Agent "^WWWOFFLE" bad_bot SetEnvIfNoCase User-Agent "^WWW-Collector-E" bad_bot SetEnvIfNoCase User-Agent "^Xaldon" bad_bot SetEnvIfNoCase User-Agent "^Xenu" bad_bot SetEnvIfNoCase User-Agent "^Zeus" bad_bot SetEnvIfNoCase User-Agent "ZmEu" bad_bot SetEnvIfNoCase User-Agent "^Zyborg" bad_bot # Vulnerability Scanners SetEnvIfNoCase User-Agent "Acunetix" bad_bot SetEnvIfNoCase User-Agent "FHscan" bad_bot # Aggressive Chinese Search Engine SetEnvIfNoCase User-Agent "Baiduspider" bad_bot # Aggressive Russian Search Engine SetEnvIfNoCase User-Agent "Yandex" bad_bot <Limit GET POST HEAD> Order Allow,Deny Allow from all # Cyveillance deny from 38.100.19.8/29 deny from 38.100.21.0/24 deny from 38.100.41.64/26 deny from 38.105.71.0/25 deny from 38.105.83.0/27 deny from 38.112.21.140/30 deny from 38.118.42.32/29 deny from 65.213.208.128/27 deny from 65.222.176.96/27 deny from 65.222.185.72/29 Deny from env=bad_bot </Limit> # END Blocking Bad Bots

Det er også en god idé å diskutere med verten din for å finne listen over dårlige roboter hvis de allerede har en.

Problemer med blokkering av servernivå

Det er få problemer med IP -blokkering på servernivå:

  • Mesteparten av tiden inkluderer IP -ene CDN og dine egne hosting -IP -er.
  • Det er vanskelig å finne de skadelige IP -ene bare ved å gjøre analyse uten referanser.
  • Feil blokkering av IP -er vil stoppe de virkelige brukerne i stedet for hackers IP.
  • Du har ikke mulighet til å legge til brukeragenter direkte i IP -nekteansvarlig. Du må blokkere de dårlige robotene ved å direkte endre .htaccess -filen.

Bruk plugin for å blokkere IP -er

Den kjedelige jobben med å blokkere IP -er og brukeragenter på servernivå kan enkelt gjøres med en plugin fra admin -dashbordet. Det er mange gratis og betalte plugins der ute for å gjøre denne jobben perfekt. Vi vil diskutere funksjonen som er tilgjengelig med en av de populære sikkerhetspluggene "All in One WP Security & Firewall".

Hvordan blokkere IP og brukeragenter i WordPress?

Finne alt i ett WP -program for sikkerhet og brannmur

Installer og aktiver programtillegget fra WordPress admin -dashbordet. Det er innstillinger som skal aktiveres for å overvåke de skadelige IP -adressene.

  • Naviger til "WP Security> Login Lockdown" og aktiver alternativet "Enable Login Lockdown Feature". Dette logger alle IP -adressene som prøver å logge på nettstedet ditt. Du kan få en umiddelbar e -post når det er en lockdown og se hele listen over låste IP -adresser under "WP Security> Dashboard> Locked IP Addresses".

Hvordan blokkere IP og brukeragenter i WordPress?

Låsingsalternativ for pålogging i alt i ett WP -program for sikkerhet og brannmur

  • Aktiver kommentarspammers IP -er under "Spamforebygging> Overvåking av spam -IP -kommentar". Du kan automatisk blokkere spammerens IP permanent når et bestemt antall spamkommentarer mottas. Alle de permanent blokkerte IP -ene kan vises under "Dashboard> Permanent blokkeringsliste" -delen.

Når du har listen over skadelige IP -adresser, navigerer du til alternativet "Blacklist Manager". Skriv inn IP -adressene én per linje og lagre innstillingene. Du kan angi individuelle IP -adresser eller med wild card som 195.47.89. eller 195,47.. eller 195 … .

Hvordan blokkere IP og brukeragenter i WordPress?

IP og User Agents Blacklist Manager

Når du har listen over dårlige roboter som vi oppgav i delen ovenfor, skriver du inn alle botnavnene under "Skriv inn brukeragenter". Dette vil blokkere disse robotene fra å få tilgang til nettstedet ditt.

For øyeblikket har pluginet en feil når brukeragenten har navnet. Det legger til mange skråstreker automatisk hver gang du lagrer listen og dermed gjør det til ugyldig navn.

Programtillegget har også et betalt tillegg for blokkering på landnivå, som vil koste deg rundt $ 29 for en enkelt nettstedslisens.

Konklusjon

Overvåker og blokkerer IP -adresser i en kontinuerlig handling, og derfor anbefaler vi å bruke "Alt i ett WP Sikkerhet og brannmur" eller et annet sikkerhetsplugin for dette formålet. Samtidig er blokkering av dårlige roboter en gangs aktivitet, eller du kan gjøre det når og når det er nødvendig ved å redigere .htaccess -filen direkte. Sørg uansett for at du overvåker og blokkerer de skadelige IP -adressene. Dette vil ikke bare bidra til å forbedre sikkerheten til nettstedet ditt, men også spare båndbredde på hosting -serveren din ved å nekte tilgang til dårlige brukere og brukeragenter.

Opptakskilde: www.webnots.com
Leave A Reply

Dette nettstedet bruker informasjonskapsler for å forbedre din opplevelse. Vi antar at du er ok med dette, men du kan velge bort det hvis du ønsker det. jeg aksepterer Mer informasjon