Sicherheit in den letzten Tagen/Wochen

OpenSource und Sicherheit

  • OpenSource ist sicher. Basta.

    Stimmen: 3 4,8%
  • Es werden zwar mehr Fehler aufgedeckt, aber die sind auch ebenso schnell gefixt

    Stimmen: 34 54,0%
  • Es beunruhigt mich etwas das in letzter Zeit gehäuft Fehler aufgedeckt werden (wie viele schlummern

    Stimmen: 4 6,3%
  • Ich verfolge die security alerts/ advisories mit einem unguten Gefühl

    Stimmen: 1 1,6%
  • Je grösser die Verbreitung des OS/ der Software umso mehr Fehler werden aufgedeckt

    Stimmen: 16 25,4%
  • OpenSource ist, was Fehler angeht, auch nicht besser als kommerzielle Produkte

    Stimmen: 2 3,2%
  • Die Sage das OpenSource von Hause aus sicher ist, stirbt aus

    Stimmen: 3 4,8%

  • Umfrageteilnehmer
    63
  • Umfrage geschlossen .
Original geschrieben von oBdA
@asg
"Das ständig irgendwo, irgendwie, irgendwas (Grüsse an Nena) gefunden wird ist klar."
Heißt es nicht: "... irgenwie, irgenwo irgendwann .. " ?


Äh, ja, stimmt. Naja, der fauxpas ist auf meiner Seite, wobei, ich gehöre sicherlich nicht zu den wirklichen Nena Fans, da darf das doch passieren... ;-)
 
@CW
Nochmal: quantentheoretische Unschärferelation hat NICHTS mit dem Hintereinanderhängen von mathematischen Operationen, wie sie in Prozessoren ablaufen, zu tun.

Nimm ein ganz einfaches Gatter, aufgebaut aus einer Handvoll Halbleiter, wie sie in den CPUs verwendet werden. Dieses wird funktionieren wie vorhergesagt.

Nimm ein paar kleinste Elementarteilchen und du wirst deine Probleme habe, ihre Position und Geschwindgkeit zu messen.

Es liegen Welten (schon rein von der Größenordnung) zw. den kleinen Elementarteilchen und den Elektronen, die durch die CPU sausen. Die von Dir angesprochenen quantenmechanischen Effekte treten in CPUs nicht auf. Von daher ist diese "Fehlerquelle" nicht existent und ich muß Deinen AUsführungen leider nochmal widersprechen.

Weiterhin vermischt Du Fehler, die durch die Unschärferelation entstehen mit Fehlern, die durch schlampige Programmierung entstehen. Letztere sind durchaus vorhanden und haben mit ersteren nix zu tun.

Der Kritik meiner Vorredner, daß Du quasi "verlangst" man soll sich anhand Deiner geposteten Links erst einmal informieren, bevor man mitreden "darf", schließe ich mich an.

Gruß
RW
 
Original geschrieben von ReinerWein
@CW
Nochmal: quantentheoretische Unschärferelation hat NICHTS mit dem Hintereinanderhängen von mathematischen Operationen, wie sie in Prozessoren ablaufen, zu tun.

Und weil die heutigen Computer nicht der wirklichen Welt ebenbürtig sind, werden eben neue Quantencomputer entwickelt.

Knapp gesagt: es kann KEINE Sicherheit mit den heutigen Computern geben.

Egal, wie du programmierst.

Nimm ein ganz einfaches Gatter, aufgebaut aus einer Handvoll Halbleiter, wie sie in den CPUs verwendet werden. Dieses wird funktionieren wie vorhergesagt.

Dann müsste es auch 100% sichere Software geben, denn sie beruht darauf.

Nimm ein paar kleinste Elementarteilchen und du wirst deine Probleme habe, ihre Position und Geschwindgkeit zu messen.

Und genau das ist das Problem: man hat Probleme sie 100% zu erfassen. Man kann nur die eine Sicht (einen Blickwinkel) auf die Atome werfen. Und daher kommt es zu Anomalien in der Berechnung.

Es liegen Welten (schon rein von der Größenordnung) zw. den kleinen Elementarteilchen und den Elektronen, die durch die CPU sausen.

Und daher kommt diese neue Technologie bald, weil sie viel weiter ist als die Elektronenrechner. Und vergiss nicht, dass auch Elektrone aus kleineren Teilchen aufgebaut sind, die eben den Quantenmechanischen Grundsätzen unterworfen sind. Und deren Wirkung pflanzt sich auf die höheren Elementarteilchen fort.

Die von Dir angesprochenen quantenmechanischen Effekte treten in CPUs nicht auf. Von daher ist diese "Fehlerquelle" nicht existent und ich muß Deinen AUsführungen leider nochmal widersprechen.

Die Fehlerquelle liegt in der Software und könnte mit der entsprechnenden Hardware schon im voraus analysiert werden.

Erst wenn man die passende Technologie hat, kann man diese Programmieren.

Was ich sagen will: man kann nicht mit vollkommenen Programmiertechniken (wenn es sowas gäbe) eine Hardware programmieren, die diese Programme nicht 100% unterstützt.

Weiterhin vermischt Du Fehler, die durch die Unschärferelation entstehen mit Fehlern, die durch schlampige Programmierung entstehen. Letztere sind durchaus vorhanden und haben mit ersteren nix zu tun.

Die Unschärfe gilt auch für uns: wir können einfach nicht alles erfassen.

Es geht nicht. Auch die einfachsten Programme können in bestimmten Situationen "anders" reagieren.

Daher müssen verschiedene Größen mitmachen: die Hardware, die von ihr überprüfte Software, die Programmiertechniken.

Das wollte ich damit sagen.

Es gibt nicht DIE eine Quelle an der es gemacht wird.

Der Kritik meiner Vorredner, daß Du quasi "verlangst" man soll sich anhand Deiner geposteten Links erst einmal informieren, bevor man mitreden "darf", schließe ich mich an.

Ich habe mich schon dafür entschuldigt, weil ich mit meinen Links nicht jemandem das Recht einräumen wollte, sondern einfach nicht sicher war, wieviele (und ob überhaupt) sich für solche Themen interessiert haben. Außerdem habe ich gesagt (und das hat man wohl übersehen), wenn man es schon bereits kennt, dann kann man gerne sofort posten.

Aber, wie gesagt: nochmals sorry ... es war nicht so gemeint.

Unischerheit eben ... der wir alle unterworfen sind.

Gruß

CW
 
Zuletzt bearbeitet:
Dann müsste es auch 100% sichere Software geben, denn sie beruht darauf.

Das ist _die_ Kernaussage, die falsch ist !!

Die Gatter machen alles so, wie man es ihnen die Programme vorgeben, aber die Vorgaben der Programme sind eben falsch. Und warum ? Weil sie von Menschen geschrieben worden sind !
Die Sache mit den Elemtarteilchen ist wie gesagt eine ganz andere Baustelle, die mit den Software-Bugs nichts zu tun hat.

Gruß
RW
 
Original geschrieben von ReinerWein
Das ist _die_ Kernaussage, die falsch ist !!

Die Gatter machen alles so, wie man es ihnen die Programme vorgeben, aber die Vorgaben der Programme sind eben falsch. Und warum ? Weil sie von Menschen geschrieben worden sind !
Die Sache mit den Elemtarteilchen ist wie gesagt eine ganz andere Baustelle, die mit den Software-Bugs nichts zu tun hat.

Gruß
RW

Und habe ich nicht gesagt, dass wir Menschen das Problem haben, alle möglichen Situationen zu erfassen?

Würden wir alles erfassen können, dann würden wir Programme schreiben können, die fehlerlos seien.

Daher brauchen wir die Hardware die so programmiert werden kann, damit sie unsere Unfähigkeit ersetzen kann.

Deswegen hat man ja auch den Computer entwickelt.

Damit er Dinge macht, die ein Mensch nicht ewig machen möchte oder nur sehr schwer eledigen kann.

Solche Hardware braucht man um neue, sicherere Software programmieren zu können.

Und weil eben die von dir zurecht angesprochenen Gatter sich so benehmen, wie wir es wollen, werden sie auch unsere Fehler in der Programmierung wiederholen.

Und ein entsprechned Programmierter Quantenrechner könnte diese Probleme beseitigen. Er muss darauf programmiert werden.

Apropos Programmierung, hier ein Link, den ich gerade gefunden habe: http://www.it-schau.de/0304/24880.html

Aber verstehe jetzt diesen Link nur als Angebot, O.K.?

Dort geht es um Programmierung der Quantenrechner. Und am Ende des Beitrages wird darauf verwiesen, dass so ein Rechner mit solcher Programmierprache, seine Algorithmen den Simulationen unterwerfen könnte.

So wie ich es verstanden habe: bevor wir ein Algoritmus akzeptieren, lassen wir alle möglichen Simulationen laufen und den Algoritmus "sich bewähren" --> (Im Wortlaut: "sofern diese nutzbar sind").

Und Programme sind ja nichts anderes als Algorithmen. :)

Grüße

CW
 
Zuletzt bearbeitet:
Gerade habe ich noch ein interessantes PDF-Dokument gefunden.

Hier der Link: http://theorie.physik.uni-wuerzburg.de/~kinzel/compphys/qucomp.pdf

Das Thema geht in die Richtung Programmieren von Quantensoftware, die vor allem natürlich für Kryptoverfahren angewandt wird, jedoch kann man diese ebenfalls für das Austesten von Software selbst anwenden.

Ein Computer, der viele Vorgänge zugleich machen kann und somit viele Informationen zugleich liefert.

Man denke nur an die allseits bekannten Buffer-Overflows. Es vergehen manchmal Jahre bis sie losschlagen. Sie lauern sozusagen im Code und warten auf ihren Moment, wenn sie mit "falschen" oder "zu viel" Daten gefüttert werden.

Und stellt euch mal jetzt einen Computer vor, der alle möglichen Datentransfers, Speicherzugriffe usw. durchspielen kann, BEVOR die Software zum Einsatz kommt (Stichwort: Simulator im oberen Link).

Das wäre doch ein riesiger Schritt nach vorne :)

CW
 
Zuletzt bearbeitet:
meine güte, quantencomputer hier, quantencomputer da, nur ein vorschlag:
können wir den jetzt mal außen vor lassen?
ich dachte es geht um _heutige_ sicherheit und unsicherheit von systemen.

und außerdem, können wir die Hardware auch gleich außen vor lassen, denn es geht um die sicherheit von software.
und da die selbe software auf unterschiedlicher hardware läuft, und es deshalb zu unterschiedlichen fehlern kommen kann (durch kosmische strahlung oder so ;) )
kann man darüber auch schlecht diskutieren.

worüber man diskutieren kann ist code und im speziellen algorithmen, und diese lassen sich sehr wohl _mathematisch_ beweisen, oder bweisen das sie falsch sind, oder beweisen, dass man sie nicht beweisen kann.
und dieser algorithmus ist hardwareunabhängig, und darum gehts bei einem OS.
 
worüber man diskutieren kann ist code und im speziellen algorithmen, und diese lassen sich sehr wohl _mathematisch_ beweisen, oder bweisen das sie falsch sind, oder beweisen, dass man sie nicht beweisen kann.
und dieser algorithmus ist hardwareunabhängig, und darum gehts bei einem OS.

Genau darum gehts mir die ganze Zeit :)
 
Original geschrieben von Maledictus
und dieser algorithmus ist hardwareunabhängig, und darum gehts bei einem OS.

Genau dies kann man in einer simulierten Umgebung erreichen. Und so eine "simulierte Umgebung" kann durch einen Quantencomputer (sorry jetzt, wegen des Begriffs) erreicht werden, damit man eben einen Algorithmus beweisen bzw. widerlegen kann.

Man könnte sich dies als eine Art Quarantäne vorstellen in der man die Algorithmen festhält, um sie auf ihre Fehler oder aber auch nur auf ihre Fähigkeiten überprüfen kann.

Und mit herkömmlichen Rechner ist dies bestimmt auch möglich, jedoch spielt die Zeit auch eine wichtige Rolle, denn sie können solche Operationen nur nacheinander ausführen und nicht zugleich. Und da wären wir schon wieder am Anfang, dass wir vielleicht wissen, dass der Code allen Widrigkeiten standhalten wird (z.B. keine Puffer-Überläufe etc.), jedoch können wir nicht alle Szenarien überprüfen, weil es einfach viel zu lange dauern würde. Und da können wir auch nicht mehr von 100%-iger Sicherheit reden, weil wir nur theoretische Beweise haben mögen, nicht aber die praktischen Daten.

Mathematisch beweisbar ja, aber nur in der Theorie.

Die Praxis ist aber ein viel, viel größeres Labor :)

Grüße

CW
 
Zuletzt bearbeitet:
Mann Leute, ich dachte hier gibt es nen paar Meinungen zu lesen und keine Vorlesung in "Physikophilosophischer-quantenmechanischer-IT-fiction" :gpaul:

Ich finde das vom Prinzip her durchaus interessant, aber hätte man das nicht schon nach der ersten Ermahnung von asg in nen anderen Thread auslagern können? :grumble:

Eigentlich wollte ich ja auch noch was philosophisches Ablassen, aber das spar ich mir, vielleicht im eigenen Thread dazu.

Gruß Lofwyr
 
Zurück
Oben