photog.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A place for your photos and banter. Photog first is our motto Please refer to the site rules before posting.

Administered by:

Server stats:

245
active users

#webserver

0 posts0 participants0 posts today

»Over 100,000 WordPress Sites Exposed to Privilege Escalation via MCP AI Engine:
The Wordfence Threat Intelligence team identified a severe security flaw in the AI Engine plugin, a widely used tool installed on over 100,000 WordPress websites.«

This is not surprising, especially since WordPress is very popular. However, the fact that it affects this scope should generally draw our attention to it on the web.

😬 gbhackers.com/over-100000-word

GBHackers Security | #1 Globally Trusted Cyber Security News Platform · Over 100,000 WordPress Sites Exposed to Privilege Escalation via MCP AI EngineThe Wordfence Threat Intelligence team identified a severe security flaw in the AI Engine plugin, a widely used tool installed.
#wordpress#web#ai
Replied in thread

@ChrisPirillo I remember when some #TechYoutuber showcased one.

youtube.com/watch?v=7gVkmrL8Na

AI Bots aussperren

Wer selbst Inhalte im Internet publiziert, möchte eventuell nicht, dass diese von den AI Web Crawlern zum Trainieren von LLMs etc. eingesammelt werden. Viele haben diese Crawler deshalb ausgesperrt. Wer dies noch nicht hat und möchte, findet hier eine entsprechende Anleitung da zu.

Webcrawler

Diese sind unter verschiedenen Namen bekannt: Searchbot, Robot, Bot, Crawler, Webcrawler. Eines haben sie aber alle gemeinsam: Sie durchsuchen das Internet nach Webseiten und analysieren diese. Je nach Zweck des Crawlers suchen sie unterschiedliche Inhalte, angefangen von E-Mail-Adressen bis hin zu Webfeeds, Fotos, Videos. Allerdings werden sie auch von Suchmaschinen zur Indexierung verwendet.

Normalerweise setzen Webcrawler den HTTP User Agent und sind darüber eindeutig identifizierbar.

KI Bots per robots.txt blockieren

Die robots.txt bildet den Robots Exclusion Standard ab. Dieser ist in RFC 9309 beschrieben und definiert ein Dateiformat für Webserver, um Bots mitzuteilen, ob sie willkommen sind, oder nicht. Diese Datei liegt im Root der jeweiligen Webseite bzw. muss dort abgelegt werden.

Idealerweise liest ein Webcrawler beim Auffinden einer Website diese Datei aus (sofern sie vorhanden ist). Ist er nicht erwünscht, verlässt er diese Seite wieder, ohne sie zu durchsuchen.

Wenn man nun also weiß, wie sich bestimmte Webcrawler bekannt machen, können diese ausgeschlossen werden:

User-agent: anthropic-aiDisallow: /

Dies kann man nun für alle bekannten Webcrawler tun.

Da natürlich ständig neue Webcrawler hinzukommen, oder sich Namen ändern, muss die Datei entsprechend gepflegt werden. Hierzu gibt es Listen, die laufend gepflegt werden. Unter anderem block-ai-robots.

KI Bots per .htaccess blockieren

Nun halten sich nicht alle Webcrawler an das, was die robots.txt vorgibt und analysieren eine Webseite auch dann, wenn sie blockiert werden. Dazu muss man mit schweren Geschützen auffahren.

Mit der .htaccess Datei können Webserver bezüglich Zugriffe konfiguriert werden. Damit können alle NCSA-kompatiblen Webserver (zum Beispiel der bei Webhostern sehr verbreitete Apache) umgehen. Mit Hilfe dieser Datei können unter anderem Routen (Weiterleitungen) definiert, aber auch Zugriffe erlaubt, oder eben auch verboten werden.

Das bedeutet, dass man die in der robots.txt definierte Sperre auch über den Webserver forcieren kann bzw. ihnen eben nur diese Datei erlaubt:

RewriteEngine onRewriteCond %{HTTP_USER_AGENT} (anthropic\-ai)RewriteRule !^/?robots\.txt$ - [F,L]

Webcrawler, die den HTTP User Agent nicht setzen, sind schwer zu erkennen. Oftmals geben Sie sich als ganz normaler Browser zu erkennen. Der Webserver kann nun nicht unterscheiden, ob es sich um eine surfende Person handelt, oder eben um einen Webcrawler.

In einigen Fällen sind die IP-Adressen bzw. IP-Adressbereiche von Webcrawlern bekannt. So ist es möglich, überhaupt die IP-Adressen am Webserver zu sperren. Hier ein Beispiel für OpenAI ChatGPT:

Order Allow,Deny# OpenAI ChatGPT - https://platform.openai.com/docs/plugins/bot/ip-egress-rangesDeny from 23.98.142.176/28Deny from 40.84.180.224/28Deny from 13.65.240.240/28Deny from 20.97.189.96/28Deny from 20.161.75.208/28Deny from 52.225.75.208/28Deny from 52.156.77.144/28Deny from 40.84.180.64/28Allow from all

Generell empfiehlt es sich, bei IP-Sperren jedoch vorsichtig zu sein. Tippfehler können sehr schnell, einen weit größeren Bereich aussperren, oftmals teilen sich aber auch gewünschte und unerwünschte Webcrawler den gleichen IP-Bereich.

Eine Vorlage hierfür gibt es ebenfalls unter block-ai-robots.

Hast du weitere hilfreiche Informationen zu diesem Thema, freue ich mich über eine Kontaktaufnahme oder einen Kommentar.

IETF DatatrackerRFC 9309: Robots Exclusion ProtocolThis document specifies and extends the "Robots Exclusion Protocol" method originally defined by Martijn Koster in 1994 for service owners to control how content served by their services may be accessed, if at all, by automatic clients known as crawlers. Specifically, it adds definition language for the protocol, instructions for handling errors, and instructions for caching.

Garage - An open-source distributed object storage service

Does any of you know about this and also use it professionally and if so in what context and how? Honestly, I'm standing up a little.

📦 garagehq.deuxfleurs.fr

Garage, an open-source distributed object storage service tailored for self-hosting
GarageThe Garage team - An open-source distributed object storage service tailored for self-hostingAn open-source distributed object storage service tailored for self-hosting
The good thing is that the internet is a worldwide thing and Americans have no influence on websites hosted outside the USA. So make sure your website is hosted on a server outside the USA!

#queer #lgbtqia #lgbt #gay #transgender #usa #trump #donaldtrump #antitrump #internet #censorship #farright #nazi #fascism #fascist #antifascism #antifa #antifascist #antifascista #alerta #cdc #headlines #whitehouse #webserver #webhosting #hosting #webhost

Credit: @mattxiv
Continued thread

Weil nichts passierte, hatte nach einer guten Stunde #ssh offenbar die Faxen dicke und brach die Verbindung ab. Uncool.

Den #Webserver neu aufgesetzt und #Webmin installiert. Das stand nach 10 Minuten bereit. Allerdings bin ich damit überfordert. Ich scheitere schon damit, ein #letsencrypt Zertifikat anzufordern. Dass entwickelt sich alles sehr unbefriedigend.

Is there a #WebServer or #proxy that can:

* serve a file from a local disk; if missing
* try to get the file via #http from another server; if can't contact promptly (say, 1s)
* try to get the file via http from a third #server

Context: I want to serve slippy map tiles. These can already be rendered (local file), rendered by a fast but possibly not present computer (my laptop), or by the server it self (which is 7y older and has 1/4th of the RAM and possibly not all data will be on the SSD).

Hallo und guten Morgen,
heute möchte ich mal eine etwas andere statistische Auswertungen hier einbringen. Täglich sind wir bemüht, verschiedene Webserver best möglich am Laufen zu halten. Nun ist es uns gelungen, etwas genauer diverse "Schädlinge" zu sich korrekt verhaltenden Seitenbesuchern ins Verhältnis zu setzen. Dabei erhalten wir ein sehr ernüchterndes Ergebnis:
99,89% bis 99,95% Schädlinge zu 0,11% bis 0,05% reguläre Aktionen von Seitenbesuchern
Das heißt: Nicht mal 1% "normale" Internetnutzer auf den von uns betreuten Webservern. Und dabei möchte ich nicht wissen, was bei den wirklich "Großen" Webservices-Betreibern los ist. Für wen betreiben wir eigentlich Webserver? Die Boshaftigkeit im Web hat besonders in den letzten 2 bis 3 Jahren extrem zugenommen.
#Webserver #Internet #Administration #Admin

Bring back the #SmallWeb, #indieweb, #static #html #PersonalSites by hosting your own stuff!

There are many small/single binary #webserver for static sites but you still have to bother about how you get your files up there.. so I built one on top of .NET's Kestrel that lets you do that, in a single binary; no config, just a few command line params.

**DirtSWS** - Dirt simple Singlebinary Web Server. github.com/tezoatlipoca/DirtSW
First release: github.com/tezoatlipoca/DirtSW

GitHubGitHub - tezoatlipoca/DirtSWS: Dirt Simple (single binary) Web ServerDirt Simple (single binary) Web Server. Contribute to tezoatlipoca/DirtSWS development by creating an account on GitHub.