hi
Anscheinend betrifft Spectre oder Meltdown nicht nur Intel, AMD und Arm.
Fast jeder CPU Typ
ist potenziell betroffen.
Gibt es überhaupt eine CPU bzw. einen Prozessor der nicht darunter fällt?
hi
Anscheinend betrifft Spectre oder Meltdown nicht nur Intel, AMD und Arm.
Fast jeder CPU Typ
ist potenziell betroffen.
Gibt es überhaupt eine CPU bzw. einen Prozessor der nicht darunter fällt?
Gibt es überhaupt eine CPU bzw. einen Prozessor der nicht darunter fällt?
CPUs ohne Out-of-order-Execution sollten generell nicht betroffen sein. Die sind dann aber tendenziell auch wesentlich langsamer…
Leider wohl auch die nicht:
Bleiben nur noch die in den der von Alpha verlinkten Videos angedeuten Raspberry Pi für
Internet ohne Meltdown oder Spectre ..
Load Lookahead (LLA) scheint aber etwas ähliches zu tun: Es führt Operationen aus bei denen noch nicht sicher ist ob das Ergebnis tatsächlich benötigt wird.
Habe da spontan keine weiteren Informationen zu LLA finden können, aber wenn es sich nur aufs Laden von Daten beschränkt dann wäre das genau die Art von Operationen die die Basis für die aktuellen Angriffsszenarien bilden.
Raspberry Pi für Internet ohne Meltdown oder Spectre ..
Könnte man den dann nicht als Server vor den PC schalten?
Hast Du nicht schon eine FritzBox vor dem PC?
FritzBox
Nö - ne FritzBox hatte ich noch nie, hihi!
Die beiden Videos angucken bildet.
Ja, sehr kompetent und die komplizierheit dies alles nicht mal so nebenbei zu verstehen wird klar betont.
Nicht angesprochen wurde, ob nicht auch die Netzwerkmethode .. die Methode wie Internet aktuell funktioniert, geändert werden muss.
Letzlich nutzt ja der Angreifer nur den Teil des Netzwerkes der über Internet sichtbar ist oder
ausfühbaren Code erst möglich macht.
Fast am Ende des zweiten Videos wurde das alte Xp angesprochen, welches kaum am Internet schon "kaputt", gemeint war anscheinend potenziell -kompromittiert gewesen sein soll.
Ist dies die Schuld des BS oder der Netzwerkmethode bei Internet die mehr möglich macht als Not tut ..
bei Patches des Betriebssystems oder der unterliegenden Hardware wird viel getan.
Darüber das Netz selbst anzupassen, zu modernisieren wird nicht mal geredet.
Ein paar Informationen zum Thema Prozessoren zur Verwirrung und zum Nachhören gibt es hier
und
aus den ÖR - Deutschladfunk Computer und Kommunikation
Keine zehn Minuten - und sehr spaßig!
Gruß,
Anne
Danke, ist aber recht anschaulich erklärt.
Was aber immer wieder vergessen wird,
ist das eigentliche Problem:.
Die anscheinend nie geänderte Methode - wie Internet funktioniert
und
die die ansich ja korrekte Technik der CPUs ja erst kompromittierbar macht.
Es wird gefühlt nur an den Symptomen rumgedoktert, Software, Hardware, .. das unterliegende Betriebssystem gepatcht.
Das eigentliche Problem die Nettzwerkmethode für Internet wurde nie geändert(?)
Die die es ja erst möglich macht diese Informationen abzugreifen.
Der Eindruck
" Internet ist eher ein Fernwartungssystem welches der Gegenstelle viel mehr erlaubt als wirklich Not tut"
kommt auf.
Warum ist beispielsweide ein häuslicher Computer
(samt Hardware Software und Betriebssystem) derart leicht sichtbar und anscheinend
technisch prinzipiell per "Rückkanal'" sichtbar bis (Fern)steuerbar ..
?
P.S.:
Gut, falls Internet technisch nicht anders geht, nur durch Patches leidlich gesichert werden kann, ist es eben so.
Es ist nicht leicht zu erklären was ich meine, aber:
Gefühlt stimmt etwas mit der Technik für Internet nicht,
die ja für sehr viel kleinere Netze konditioniert ist
als sie das heutige riesige Internet ist.
Hallo Xdata,
die schnitstellen. Sind das ganze einfache problem
Software vs Hardware
Gruesse
Sascha
P.S. https://googleprojectzero.blogspot.mx/2018/01/reading-privileged-memory-with-side.html
Wobei Hardware, speziell CPUs, noch eine ganz andere Liga bei der Kompliziertheit und auch der Komplexität ist.
Meine Hoffnung ist, so es irgendwann eine Technik für Internet gibt, die es nicht so leicht macht anscheinend,
selbst die Intercommunikation zwischen professionellen Servern abzugreifen, oder gar aktiv irgendetwas zu steuern. Zum Teil unbemerkt und jetzt sogar bei Hardware.
Noch unbehaglicher fand ich Stuxnet!
Weil da ein ganz andersartiger Typ betroffen war,
nämlich SPS Steuerungen, aber auch wieder nur per Internet.
Kein vernünftiges Kraftwerk sollte DARF(!) direkt mit dem Internet verbunden sein.
Das geht!
Wie ein Kraftwerker eines der modernsten Heizkraftwerke in Berlin versichert hat.
Hallo Xdata.
Ich sage nur:
Supervisory control and data acquisition (SCADA)
Sonst nichts.
Saludos
Sascha
Weil da ein ganz andersartiger Typ betroffen war, nämlich SPS Steuerungen, aber auch wieder nur per Internet.
Die Infektion lief dort AFAIR über USB-Sticks…
die ansich ja korrekte Technik der CPUs ja erst kompromittierbar macht
Hier sind aber viele verschiedene Überlegungen gemixt.
Sicher ist es so, dass in der ganzen Entwicklung von Rechentechnik und Internet mehr draus geworden ist, als man sich am Anfang vorstellen konnte.
Dass Milliarden einzelne Rechner in ein Internet gekommen sind - unvorstellbar noch Mitte der 80er Jahre.
Am sichersten ist Dein Rechner, wenn er nicht in einem Netzwerk mit fremden Rechnern ist und erst Recht nicht im Internet.
Aber ich nehme an, dass das dann für die meisten recht uninterssant ist.
Vor allem ist es beunruhigend, dass z.B. mit dem Smart-System-Kram jetzt auch noch die Wohnung und damit das Privatleben von jedem Wohnungsbesitzer in die Öffentlichkeit gebracht werden soll Jeder blöde Hacker kann dann anhand des Stromverbrauchs die Lebensgewohnheiten von ganz normalen Mitbürgern erkunden.
Doch dank Internet kann jeder Interessierte, der es auch packt, genug über diese Themen erfahren.
Suche nach Kurs Internet Sicherheit - zum Beispiel. Mit eMail anmelden, ganz einfach.
Hier z.B. ist vor allem Theorie: https://open.hpi.de/courses/intsec2016
Wobei ein Kurs immer noch keine Praxis ist.
Letzten Endes ist das Internet aber nicht mehr gefährlich als Fahren mit dem Auto, der Eisenbahn oder Fliegen. Anders unsicher sicher.
Gruß,
Anne
Deine Idee, zu dieser komplizierten Technik einen Kurs zu machen ist eine Überlegung wert, Danke.
Was mich so verunsichert hat ist, so auch Hardware betroffen ist ...
Bei Software hat ja eine gewisse Gewöhnung stattgefunden.
Ab und zu wenigstens.
Die normale Netzwerktechnik ist ja schon kompliziert genug.
Wichtiger ist es zu verstehen warum der "Client" so viel preisgeben muss
um im Internet zu surfen.
Gemeint ist der Computer im Hause.
Hoffentlich tut es nicht Not, etwa bis zum OSI Modell runterzugehen um zu verstehen warum Internet im Hause anscheinend so leicht kompromittierbar ist,
auch ohne Spectre oder Meltdown.
Letzteres Modell ist richtig kompliziert.
Das hatte ich mal in der Elektroniker Ausbildung.
Hoffentlich tut es nicht Not .. OSI Modell
OSI-Modell ist irgendwie sehr nutzlos und nicht praktisch, das wurde schon vor etwa 25 Jahren so geäußert.
Bei der Hardware ist es doch auch die "Programmierung", wie sie arbeitet.
Von der Geschichte mit dem Vorwärts-Arbeiten von Prozessoren habe ich schon etwas in einem Kurs zu Großrechnerzeiten gehört.
Statt Prozessor gab es dazumal "Zentraleinheit", "Rechenwerk" und ähnliche Bezeichnungen.
Es gibt verschiedene Informationsquellen über die Sicherheit zum Surfen im Internet.
Und jeder kann sicher sein, dass es in dem ganzen komplizierten System immer wieder jemanden gibt, der noch eine neue Möglichkeit bzw. Lücke zum Hacken findet.
Meine Meinung zu der Frage heißt einfach: Die Mathematik ist die einzige Wissenschaft, in der es "richtig" und "nicht richtig" gibt - weil die Mathematik so aufgebaut ist.
Für viele Fragen zu Computern finde ich übrigens das elektronik-kompendium.de zum Nachsehen sehr, sehr hilfreich. Dort werden Erläuterungen klar und verständlich formuliert - und der Umfang ist riesig. Netzwerktechnik
In die Bedienung muss man sich einfummeln.
Dumm ist nur, dass es ein Leben ohne Computer (inkl. Smartphones) und Internet kaum noch gibt.
Gruß,
Anne
OSI-Modell ist irgendwie sehr nutzlos und nicht praktisch, das wurde schon vor etwa 25 Jahren so geäußert.
Wer hat sowas geäußert?
Dem würde ich nämlich ganz klar widersprechen: Dank ISO/OSI-Modell haben wir eine relativ klar Trennung von Zuständigkeiten auf verschiedene Implementations-Ebenen. Die Komplexität wird damit sinnvoll reduziert und dem Schichtenmodell verdanken wir es auch, dass man mal eben nachträglich WLAN als alternativen Übertragungsweg einführen konnten ohne, dass auf Protokoll- oder gar auf Anwendungsseite irgendwelche Änderungen durchgeführt werden mussten.
Die gesamte heutige Internet-Technik setzt auf den Grundideen des ISO/OSI-Schichtenmodells auf. Auch wenn in der praktischen Umsetzung einige Schichten zusammengefasst wurde.
Statt Prozessor gab es dazumal "Zentraleinheit", "Rechenwerk" und ähnliche Bezeichnungen.
Steuer und Rechenwerk findest Du auch heute noch als die Grundbegriffe zum Aufbau eines Prozessors, sowie auch real in Hardware gegossen wieder. Sicher aber deutlich komplexer als früher, da viele Optimierungen zur Geschwindigkeitssteigerung vorgenommen wurden.
Wer hat sowas geäußert?
Das war zu der Zeit mehr aus der Praxis von Netzwerkadmins.
Es gab in vielen Firmen und Einrichtungen vernetzte PCs und Midrange-Rechner. OSI-Modell gehörte zu Ausbildung, doch in der Praxis hatte es für die Berufsgruppe kaum Bedeutung.
Entschuldigung, wenn ich das etwas flapsig auf die Praxis für heimische PCs im Internet hineingeworfen habe.
Gut, wenn Xdata es ganz genau wissen will, ist auch das OSI-Modell für sein Netzwerk interessant.
OSI-Modell gehörte zu Ausbildung, doch in der Praxis hatte es für die Berufsgruppe kaum Bedeutung.
Du wirst wahrscheinlich zu vielen theoretischen Inhalten aus einer Informatik-nahen Ausbildung ähnliche Aussagen hören.
In der Praxis merkst Du dann aber doch häufig wer auch theoretischen Grundlagen kennt und verinnerlicht hat und wer nicht.
Falls das Modell überhaupt damit zu tun hat warum Internet anscheinend
"nur mit Patchen!"
vorübergehend leidlich gesichert werden kann.
Wenn Hacker jetzt schon Informationen aus der CPU oder anderer Hardware
entnehmen können
-- kann es mit wirksamer Trennung nicht so weit her sein.
Prinzipiell ist doch jede CPU die betroffen ist technisch OK.
Im Gegensatz zu der aktuellen Technik für Internet.
In dem Video wurde gar angedeutet, die Trennung bei Servern sei nicht mehr sicher.
Gemeint war wieder, so es per Internet angreifbar ist.
Wobei wieder vergessen wurde so es explizit ja am Netzwerk liegt.
Nur dieses verhindert eben nicht diese Zugriffe überhaupt zuzulassen.
Was nützt es eine neue langsamere CPU zu entwickeln
und dann etwas später wieder eine andere Netzwerklücke zu entdecken!
Falls das Modell überhaupt damit zu tun hat warum Internet anscheinend "nur mit Patchen!"vorübergehend leidlich gesichert werden kann.
Spectre und Meltdown haben absolut überhaupt gar nichts mit dem ISO/OSI-Schichtenmodell zu tun.
Wenn Hacker jetzt schon Informationen aus der CPU oder anderer Hardware entnehmen können -- kann es mit wirksamer Trennung nicht so weit her sein.
Das Problem kann überhaupt nur dann eintreten wenn man Code auf dem System ausgeführt werden kann. Und das ist entweder dann der Fall auf auf der Anwendungsschicht vorgesehen ist, dass Code von anderen Systemen entgegegen genommen wird oder dieser durch Fehler eingeschleust werden kann.
In dem Video wurde gar angedeutet, die Trennung bei Servern sei nicht mehr sicher. Gemeint war wieder, so es per Internet angreifbar ist.
"Das Internet" ist nun absolut nicht schuld dran. Das auslesen von fremden Speicherbereichen würde auch funktionieren wenn das System überhaupt keinen Netzwerkstack implementiert!
Hier z.B. ist vor allem Theorie: https://open.hpi.de/courses/intsec2016
Wobei ich kürzlich gelesen habe, dass das HPI (Hasso-Plattner-Institut) offenbar durchaus umstritten ist. So bezeichnet Golem.de das HPI als
Deutschlands führendes Institut für pseudowissenschaftliche Statistiken zur IT-Sicherheit
Siehe IMHO: Tag der unsinnigen Passwort-Ratschläge
Wobei ich den genannten Kurs des HPI jetzt nicht kenne - vielleicht ist er ja gut.
bezeichnet Golem.de das HPI
In dem Kurs geht es um "Grundbegriffe der Internetsicherheit". (Zitat aus dem zitierten Link)
Der Kurs hat mit Statistik nichts zu tun. Und wieweit Golem.de über Statistiken Bescheid weiß - hast Du eine Stelle, wo das zu überprüfen wäre?
Vielleicht die Quelle oder den Link zu der Aussage von Golem.de.
Damit man weiß, wovon geredet wird und nicht Pseudo-Fakten weitergegeben werden.