Oracle und die Zukunft der SUN Produkte.

Was dort steht, ist daß eben nicht alles beim alten bleibt, sondern nur noch ausgewählter Code nach Gutdünken veröffentlicht wird. D.h. im Klartext: die weitere Entwicklung von ZFS ist in Gefahr, da Oracle erst dann veröffentlichen wird bzw. Überhaupt, wenn denn das Release gut über die Bühne lief und sie meinen es bestehe keine Gefahr mehr seitens der Konkurrenz gegenüber ihrer IP.

Eigentlich steht da relativ klartext, dass aller Code in /usr/src, außer im /closed Verzeichnis weiterhin veröffentlicht wird, nur eben in Zukunft _nach_ einem Release und nicht während des Entwicklungszyklus. Zudem glaube ich kaum, dass Oracle die BSDs oder Nexenta in irgendeiner Form als Konkurrenz sieht. Von daher glaube ich kaum, dass sich da all zu groß etwas ändern wird, denn Solaris Express soll ja regelmäßig erscheinen und die Plattform für OpenSolaris Nutzer werden, wogegen Solaris 11 die Enterprise Plattform werden soll, beides natürlich mit entsprechenden Serviceverträgen ausgestattet - weswegen ich auch davon ausgehe, dass Solaris Express mehr das alte Sun'sche OpenSolaris bleiben wird als ein Oracle'sches "Express" Produkt.
 
Eigentlich steht da relativ klartext, dass aller Code in /usr/src, außer im /closed Verzeichnis weiterhin veröffentlicht wird, nur eben in Zukunft _nach_ einem Release und nicht während des Entwicklungszyklus. Zudem glaube ich kaum, dass Oracle die BSDs oder Nexenta in irgendeiner Form als Konkurrenz sieht. Von daher glaube ich kaum, dass sich da all zu groß etwas ändern wird, denn Solaris Express soll ja regelmäßig erscheinen und die Plattform für OpenSolaris Nutzer werden, wogegen Solaris 11 die Enterprise Plattform werden soll, beides natürlich mit entsprechenden Serviceverträgen ausgestattet - weswegen ich auch davon ausgehe, dass Solaris Express mehr das alte Sun'sche OpenSolaris bleiben wird als ein Oracle'sches "Express" Produkt.

"It says "full release", so I can't expect that code will ship with each Express release. Maybe it will, I hope so.

It goes on to say that "technology partners" (such as Intel) will have full source access via OTN. "

wie auch Ben Rockwood bemerkt.

http://www.cuddletech.com/blog/pivot/entry.php?id=1140

D.h. es kann dauern, es kann auch nichts kommen. Für den üblichen Solaris-Anwender mit Support wird sich wohl überhaupt nichts ändern, aber die hatten auch in der Regel wenig mit OpenSolaris am Hut. Für andere, die z.B. wie FreeBSD ZFS oder dtrace verwerten, sieht die Sache nun schon gänzlich anders aus.

Was wiederum auch seitens folgender Aussage bestätigt wird: "We
want the adoption of our technology and intellectual property to
accelerate our overall goals, yet not permit competitors to derive
business advantage (or FUD) from our innovations before we do."
 
Nun hat sogar die FTD darüber berichtet:

http://www.ftd.de/it-medien/:aus-fuer-opensolaris-oracle-verprellt-open-source-szene/50157601.html

Naja, ich frag mich, was hat es für einen Sinn neben Linux und BSD noch zusätzlich OpenSolaris voranzutreiben? Ich sehe keinen Nachteil für die Menschheit, wenn dieses stirbt. Wir haben genügend Wettbewerb bei Betriebssystemen:
Linux, BSD, Mac OS, Win ist doch eine breite Auswahl?

Meinetwegen soll Oracle das closed source Solaris weiter abschotten. Gegen IBM, Novell, Redhat und Intel, die allesamt Linux unterstützen wird es Oracle schwer haben. Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?
 
Moin,

Meinetwegen soll Oracle das closed source Solaris weiter abschotten. Gegen IBM, Novell, Redhat und Intel, die allesamt Linux unterstützen wird es Oracle schwer haben. Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?

Na ja, da wären: Container, saubere SMP-Unterstützung, ultra stabiles Dateisystem (UFS), konsequente Ausrichtung auf große und größte Datenmengen usw.

JueDan
 
Meinetwegen soll Oracle das closed source Solaris weiter abschotten. Gegen IBM, Novell, Redhat und Intel, die allesamt Linux unterstützen wird es Oracle schwer haben. Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?

IBM unterstützt es auch nur dort, wo sie kein AIX absetzen können. Oracle dürfte das in Zukunft ähnlich handhaben.

Und die haben beide recht vieles, woran ein Enterprise Linux lange nicht rankommt, gerade im Hochverfügbarkeitsbereich oder da, wo du auf ein paar mehr Kerne skalieren willst.

[troll] vor allem haben sie ne API [/troll]
 
Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?
Für den normalen Desktop Anwender / Hobby Server Betreiber mag das ja stimmen, aber auf richtig großen Systemen kann Solaris seine stärken zeigen. Da kommt eben noch kein Linux, *BSD oder Windows ran.

Ich sage es zwar ungern, aber ich denke Oracle hat mit OpenSolaris richtig entschieden. Sind wir doch mal ehrlich die Community selbst hat schon zu Zeiten von Sun recht wenig Code beigetragen. Das liegt vor allem an der geringen verbreitung. Warum soll also Zeit / Geld in ein Projekt investiert werden wenn es im prinzip keinen wirklichen nutzen hat. Wenn es wirklich eine brauchbare Solaris Express Version langfristig geben wird ist das doch in Ordnung.

Grüße
 
Nun hat sogar die FTD darüber berichtet:

http://www.ftd.de/it-medien/:aus-fuer-opensolaris-oracle-verprellt-open-source-szene/50157601.html

Naja, ich frag mich, was hat es für einen Sinn neben Linux und BSD noch zusätzlich OpenSolaris voranzutreiben? Ich sehe keinen Nachteil für die Menschheit, wenn dieses stirbt. Wir haben genügend Wettbewerb bei Betriebssystemen:
Linux, BSD, Mac OS, Win ist doch eine breite Auswahl?

Meinetwegen soll Oracle das closed source Solaris weiter abschotten. Gegen IBM, Novell, Redhat und Intel, die allesamt Linux unterstützen wird es Oracle schwer haben. Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?


tz alleine bei dem thema hochverfuegbarkeit und clustering ist linux dermassen
fuern ......... ar.... .
ein ernsthaftes daran denken mit linux eine ha db oder firewall aufzusetzen
ist schon verlorene zeit.

mit jedem bsd geht das besser als mit linux.

und thema linux und zfs .......... ist etwas zu belustigung als eine ernsthafte implementierung wie bei freebsd.


also sorry nix fuer ungut

holger
 
mark05: Trotz allem wird es gemacht, vor allem weil Linux bekannter ist. Auch Windows Server Versionen werden da verwendet.

Warum das im Detail so ist weiß ich nicht, aber Windows und Linux werden in der Praxis auch in Bereichen eingesetzt, wo man sich ganz andere Systeme erwartet.

Das zieht sich durch alle Branchen durch. Klar, bei den allergrößten Unternehmen dieser Welt ist das seltener. Nur gibt es viele Unternehmensführungen und Personalverwalter ohne Ahnung, die Informatiker ohne Ahnung anstellen und mehr oder minder planlos Sachen aufziehen. Ich frage mich wie das im Detail ist. Vielleicht hat das mit Outsourcing zu tun und es wird halt irgendetwas gesucht um an das zu kommen was man will.

Das ist zumindest das, was ich so mitbekommen habe. Keine Studie, aber aus der Realität. Ob es für den A*sch ist oder nicht. Es wird eingesetzt und zwar gar nicht mal so selten.

Was ZFS betrifft. Es dauert mitunter ziemlich lang, bis solche Dinge eingesetzt werden. Viele Informatiker verwenden einfach das, was sie gelernt haben. Das kann schon ziemlich lange her sein und reine Dummheit. Häufig lässt man es einfach so, rührt möglichst nichts an und solange es keinen Totalausfall gibt ist es okay. Klar, wenn man sich reine IT-Unternehmen her nimmt wird der Prozentsatz derartiger Unternehmen kleiner, wird aber trotzdem nicht verschwinden. Nur wäre es ein Fehler anzunehmen, dass nur derartige Unternehmen im Besitz Hochverfügbarkeitslösungen, etc. sind.

Wenn dann noch die Linux-Firmen, die Lord_British genannt hat, dann hat man schon ein genaueres Bild. Allerdings geht das auch in die andere Richtung. Es gibt wohl sicherlich einiges, was sich auf Solaris stützt. Die Frage ist nur, wie die reagieren und darüber habe ich keinen Schimmer. Man kann derartige Projekte aber sicherlich nicht so einfach killen - naja je nachdem wann man ein Projekt als tot bezeichnet ;)
 
mark05: Trotz allem wird es gemacht, vor allem weil Linux bekannter ist. Auch Windows Server Versionen werden da verwendet.

Warum das im Detail so ist weiß ich nicht, aber Windows und Linux werden in der Praxis auch in Bereichen eingesetzt, wo man sich ganz andere Systeme erwartet.

Ich denke das ist oft ne Geldsache, bei kleineren Unternehmen vielleicht auch oft noch ein Mangel an Know-How der zu sowas führt. Windows XP als Webserver und dann wundern, wieso der nach einer Handvoll Connections dichtmacht ist so eine aus dem realen Leben gegriffene Sache über die man lieber kein zweites mal nachdenkt. Man bekommt halt oft nur das Know-How, für das man auch bereit ist Geld auszugeben. Wenn dann im Unternehmen niemand Ahnung von der Materie hat dürfte auch die Auswahl eines Dienstleisters schwer sein.

Das zieht sich durch alle Branchen durch. Klar, bei den allergrößten Unternehmen dieser Welt ist das seltener. Nur gibt es viele Unternehmensführungen und Personalverwalter ohne Ahnung, die Informatiker ohne Ahnung anstellen und mehr oder minder planlos Sachen aufziehen. Ich frage mich wie das im Detail ist. Vielleicht hat das mit Outsourcing zu tun und es wird halt irgendetwas gesucht um an das zu kommen was man will.

Da gibts auch interessante Provisorien. Da erzählte mir ein Freund letztens etwas Amüsantes aus seinem Arbeitsalltag: Die Netzwerkversorgung für ein ganzes Bürogebäude seines Arbeitgebers erfolgt bei denen über einen Netzwerkraum, aus dem in zwei Bodenschächten je ca. 120 Kabel rausgehen. Verlegen neuer Kabel ist da ein Akt des (fast) unmöglichen. Netzwerkverteiler für Stockwerke sind zwar seit Jahren geplant, aber da die Verwaltung keine Notwendigkeit sieht da Geld auszugeben wurde das bisher einfach nie in ein Budget eingeplant. Erst als neulich neue Kabel verlegt werden sollten hieß es aus der IT, dass es nicht möglich wäre. Für das nächste oder Übernächste Jahr soll es dann vielleicht mal eingeplant werden. Gleichzeitig kürzt man aber in der IT weiter Geld und Personal, da die Verwaltung nur sieht, dass die IT funktioniert und daher glaubt da was sparen zu können - frei nach dem Motto "solange es gut geht braucht man kein Geld für ausgeben".
Ich denke auch nichtmal, dass das ein phänomenaler Einzelfall ist. Die Leute in der Verwaltung haben meistens nur Kontakt mit der IT, wenn was nicht funktioniert. Was hinter den Kulissen alles notwendig ist, damit ihr kram läuft ist denen nicht bekannt und wohl auch herzlich egal solange man an dieser Stelle den Rotstift ansetzen kann.

Was ZFS betrifft. Es dauert mitunter ziemlich lang, bis solche Dinge eingesetzt werden. Viele Informatiker verwenden einfach das, was sie gelernt haben.

Das möchte ich mal so unterschreiben. Das schönste was ich da bisher gesehen habe waren 2 Racks Platten vor denen ein einfaches RHEL als Storageserver saß. Wieso? Weil man den RedHat Support hatte und kein Geld für was anderes ausgeben wollte. Man kannte sich halt mit Linux aus. An ein fsck Downtime Szenario möchte man bei sowas aber einfach nicht denken.
 
Ich denke auch nichtmal, dass das ein phänomenaler Einzelfall ist. Die Leute in der Verwaltung haben meistens nur Kontakt mit der IT, wenn was nicht funktioniert. Was hinter den Kulissen alles notwendig ist, damit ihr kram läuft ist denen nicht bekannt und wohl auch herzlich egal solange man an dieser Stelle den Rotstift ansetzen kann.
Ich könnte jetzt das ganze aus der entgegengesetzten Perspektive erzählen (nicht konkret den von Dir geschilderten Fall, weiß nicht, um welche Firma es da geht ;)). Alljährlich pünktlich zur Planung für das kommende Geschäftsjahr werden wir "Verwaltungsheinis" (im Fachjargon auch Controller genannt) mit Wünschen der verschiedenen Abteilungen vollgeblaht, für was sie alles Kohle haben wollen. Unter'm Strich erfahrungsgemäß etwa ein Betrag in der Größenordnung des doppelten Unternehmensumsatzes. Ich arbeite in einem produzierenden Unternehmen, und da ist es (leider) nun mal Fakt, dass ca. 80-90% des Umsatzes für die Produktion, Produktpflege (Fehlerkorrektur, After Sales Service etc.) und Produktneuentwicklung (Design, Konstruktion, Prototypenbau, Erprobung) draufgehen. Bleiben also 10-20%, die man zwischen der IT, Forschung & Entwicklung, den Finanz-Heinis (die wollen immer Rücklagen bilden) sowie den Shareholdern aufteilen kann.

Man kann also unmöglich alle Budgetwünsche erfüllen. Jetzt könnte man meinen, die Verteilung der (voraussichtlich) verfügbaren Mittel würde allein nach sachlichen Kriterien erfolgen. Also was ist zwingend notwendig (z. B. zur Erhaltung bestimmter Fähigkeiten des Unternehmens, wie etwa Wartung von Produktionsanlagen, Einkauf von Material, Bezahlung der produzierenden Mitarbeiter etc.), was ist strategisch sinnvoll (z. B. Erweiterung der Produktionskapazität), womit sichert man die Zukunft (z. B. Investition in ein bestimmtes Forschungsprojekt). Aber weit gefehlt! In diesem Prozess spielt der Faktor Mensch (sofern man Chefs als Menschen betrachten kann :ugly:) eine nicht nur wichtige, sondern auch höchst abstruse Rolle. So bekommen auf einmal Vorhaben Priorität eingeräumt, wo (Fach)man(n) sich fragt, was der Blödsinn eigentlich bringen soll... bis man dann mitkriegt, dass irgendein Abteilungsleiter ganz scharf drauf war, statt BMW künftig Mercedes zu fahren. Ist zwar kein Beispiel aus meiner Firma (sehr wohl aber aus der Realität gegriffen), aber ich bin mir absolut sicher, dass es in jeder größeren Firma solche Extravaganzen gibt.

Und so kommt es auch, dass gar nicht die Meinung des besten IT-Fachmannes die maßgebliche bei der Verteilung der Budgets für den IT-Bereich ist. Von Servern, Backup-Systemen etc. bekommt man außerhalb der IT-Welt tatsächlich nur wenig mit. Man nimmt zur Kenntnis, dass auf dem Schreibtisch eine schrottreife, sechs Jahre alte Höllenmaschine steht (anstelle eines vernünftigen Computers), sieht, wer mit welcher Kategorie von Handy ausstaffiert wird etc.

Am Ende läuft es jedenfalls darauf hinaus: Die Verwaltungsleute müssen versuchen, zwischen persönlichen Vorlieben derer, die das Sagen in der Firma haben, völlig unbescheidenen Budgetforderungen der Bereiche ("wenn wir das nicht kriegen, können wir morgen den Laden dicht machen!!11!1!1!!") und den bitteren Realitäten der tatsächlich verfügbaren Mittel irgendwie eine Zuteilung hinzubekommen, über die zwar jeder meckert, die aber das Unternehmen nicht in den Ruin treibt. Und das auch noch alles, ohne dabei wirklich fachlich die verschiedenen Themen durchschauen zu können.

So, liebe IT-Fachabteilungs-Nerds, jetzt dürft ihr mich steinigen. Ihr dürft aber auch gerne mal ein Praktikum bei mir machen, wenn ihr diesen alltäglichen Wahnsinn mal live erleben wollt :D
 
Ich könnte jetzt das ganze aus der entgegengesetzten Perspektive erzählen (nicht konkret den von Dir geschilderten Fall, weiß nicht, um welche Firma es da geht ;)). Alljährlich pünktlich zur Planung für das kommende Geschäftsjahr werden wir "Verwaltungsheinis" (im Fachjargon auch Controller genannt) mit Wünschen der verschiedenen Abteilungen vollgeblaht, für was sie alles Kohle haben wollen. Unter'm Strich erfahrungsgemäß etwa ein Betrag in der Größenordnung des doppelten Unternehmensumsatzes. Ich arbeite in einem produzierenden Unternehmen, und da ist es (leider) nun mal Fakt, dass ca. 80-90% des Umsatzes für die Produktion, Produktpflege (Fehlerkorrektur, After Sales Service etc.) und Produktneuentwicklung (Design, Konstruktion, Prototypenbau, Erprobung) draufgehen. Bleiben also 10-20%, die man zwischen der IT, Forschung & Entwicklung, den Finanz-Heinis (die wollen immer Rücklagen bilden) sowie den Shareholdern aufteilen kann.

Man kann also unmöglich alle Budgetwünsche erfüllen. Jetzt könnte man meinen, die Verteilung der (voraussichtlich) verfügbaren Mittel würde allein nach sachlichen Kriterien erfolgen. Also was ist zwingend notwendig (z. B. zur Erhaltung bestimmter Fähigkeiten des Unternehmens, wie etwa Wartung von Produktionsanlagen, Einkauf von Material, Bezahlung der produzierenden Mitarbeiter etc.), was ist strategisch sinnvoll (z. B. Erweiterung der Produktionskapazität), womit sichert man die Zukunft (z. B. Investition in ein bestimmtes Forschungsprojekt). Aber weit gefehlt! In diesem Prozess spielt der Faktor Mensch (sofern man Chefs als Menschen betrachten kann :ugly:) eine nicht nur wichtige, sondern auch höchst abstruse Rolle. So bekommen auf einmal Vorhaben Priorität eingeräumt, wo (Fach)man(n) sich fragt, was der Blödsinn eigentlich bringen soll... bis man dann mitkriegt, dass irgendein Abteilungsleiter ganz scharf drauf war, statt BMW künftig Mercedes zu fahren. Ist zwar kein Beispiel aus meiner Firma (sehr wohl aber aus der Realität gegriffen), aber ich bin mir absolut sicher, dass es in jeder größeren Firma solche Extravaganzen gibt.

Und so kommt es auch, dass gar nicht die Meinung des besten IT-Fachmannes die maßgebliche bei der Verteilung der Budgets für den IT-Bereich ist. Von Servern, Backup-Systemen etc. bekommt man außerhalb der IT-Welt tatsächlich nur wenig mit. Man nimmt zur Kenntnis, dass auf dem Schreibtisch eine schrottreife, sechs Jahre alte Höllenmaschine steht (anstelle eines vernünftigen Computers), sieht, wer mit welcher Kategorie von Handy ausstaffiert wird etc.

Am Ende läuft es jedenfalls darauf hinaus: Die Verwaltungsleute müssen versuchen, zwischen persönlichen Vorlieben derer, die das Sagen in der Firma haben, völlig unbescheidenen Budgetforderungen der Bereiche ("wenn wir das nicht kriegen, können wir morgen den Laden dicht machen!!11!1!1!!") und den bitteren Realitäten der tatsächlich verfügbaren Mittel irgendwie eine Zuteilung hinzubekommen, über die zwar jeder meckert, die aber das Unternehmen nicht in den Ruin treibt. Und das auch noch alles, ohne dabei wirklich fachlich die verschiedenen Themen durchschauen zu können.

So, liebe IT-Fachabteilungs-Nerds, jetzt dürft ihr mich steinigen. Ihr dürft aber auch gerne mal ein Praktikum bei mir machen, wenn ihr diesen alltäglichen Wahnsinn mal live erleben wollt :D

edit: wurde per PN dem Poster zugestellt, weil OT
 
Anekdoten gibt es da viele, aber was ich damit sagen wollte ist, dass man nicht glauben darf, dass man nur mit Systemen Geld macht, die besser sind als Andere. Auch nicht im professionellen Bereich.

Kurz gesagt gibt es eine Reihe von Leuten, die wohl verhindern wollen, dass OpenSolaris einfach so verschwindet. Da das keine Ungebildeten sind halte ich einen erfolgreichen (mit erfolgreich meine ich ein anständig geführtes Projekt und nicht die Weltherrschaft ;)) Fork mit einer dezidierten Entwicklergemeinschaft für durchaus realistisch.
 
Nun hat sogar die FTD darüber berichtet:

http://www.ftd.de/it-medien/:aus-fuer-opensolaris-oracle-verprellt-open-source-szene/50157601.html

Naja, ich frag mich, was hat es für einen Sinn neben Linux und BSD noch zusätzlich OpenSolaris voranzutreiben? Ich sehe keinen Nachteil für die Menschheit, wenn dieses stirbt. Wir haben genügend Wettbewerb bei Betriebssystemen:
Linux, BSD, Mac OS, Win ist doch eine breite Auswahl?

Meinetwegen soll Oracle das closed source Solaris weiter abschotten. Gegen IBM, Novell, Redhat und Intel, die allesamt Linux unterstützen wird es Oracle schwer haben. Ein Solaris hat doch nix, was ein Enterprise-Linux nicht auch schon hätte?

So ?
Dann vergleich mal bitte die HA Loesungen von Linux BSD und Solaris.
Novell pfeift sowieso auf dem letzten Loch und wir mussten fuer Novell fuer unsere OracleDB, Veritas Storedge Foundation anschaffen weil Ext3 mit dem Kram nicht fertig geworden wäre.
 
Woher kommt eigentlich dieses Ammenmärchen, dass Linux nicht gut skalieren würde? Plappert ihr hier nur den polarisierenden Mist, den die Sun-Leute von sich geben, nach oder habt ihr überhaupt eigene Erfahrung damit?

Nach meiner Erfahrung mit ganz dicken Maschinen (32 cpus aufwärts) skaliert Linux gut bis sehr gut. Der Netzwerk-Stack beispielsweise skaliert dank RCU (http://en.wikipedia.org/wiki/Read-copy-update) WELTEN BESSER als der von Solaris. Das war übrigens schon zu pre-smp Zeiten 1996/1997 so, da der Solaris-Stack auf STREAMS basierte.

Und dann der Quatsch, das Linux nicht für HPC taugen würde. Was meint ihr denn, warum auf den Sun-Supercomputern Linux und nicht Solaris läuft? Ganz einfach weil die Infiband-Unterstützung von Solaris verglichen mit der von Linux ein Witz ist.

Natürlich gibt es noch Flaschenhälse, wie beispielsweise das VFS, aber das dürfte demnächst auch Geschichte sein: http://git.kernel.org/?p=linux/kern...npiggin.git;a=shortlog;h=refs/heads/vfs-scale

Also bitte: Plappert nicht irgendwelchen FUD nach, der vielleicht zu Zeiten des 2.4'er Kernels noch gestimmt hat. Die SMP-Unterstützung von Solaris und anderen proprietären UNIX-Systemen ist dermaßen gehyped, dass es fast ans lächerliche grenzt.
 
Woher kommt eigentlich dieses Ammenmärchen, dass Linux nicht gut skalieren würde? Plappert ihr hier nur den polarisierenden Mist, den die Sun-Leute von sich geben, nach oder habt ihr überhaupt eigene Erfahrung damit?

Nach meiner Erfahrung mit ganz dicken Maschinen (32 cpus aufwärts) skaliert Linux gut bis sehr gut. Der Netzwerk-Stack beispielsweise skaliert dank RCU (http://en.wikipedia.org/wiki/Read-copy-update) WELTEN BESSER als der von Solaris. Das war übrigens schon zu pre-smp Zeiten 1996/1997 so, da der Solaris-Stack auf STREAMS basierte.

Und dann der Quatsch, das Linux nicht für HPC taugen würde. Was meint ihr denn, warum auf den Sun-Supercomputern Linux und nicht Solaris läuft? Ganz einfach weil die Infiband-Unterstützung von Solaris verglichen mit der von Linux ein Witz ist.

Natürlich gibt es noch Flaschenhälse, wie beispielsweise das VFS, aber das dürfte demnächst auch Geschichte sein: http://git.kernel.org/?p=linux/kern...npiggin.git;a=shortlog;h=refs/heads/vfs-scale

Also bitte: Plappert nicht irgendwelchen FUD nach, der vielleicht zu Zeiten des 2.4'er Kernels noch gestimmt hat. Die SMP-Unterstützung von Solaris und anderen proprietären UNIX-Systemen ist dermaßen gehyped, dass es fast ans lächerliche grenzt.

Von HPC hat keiner geredet und zwischen HPC und HA besteht ein Unterschied. ;)
 
Nett das du dich daran aufhängst, dass ich mich an der einen Stelle verlesen habe und nicht auf die anderen Punkte eingehst. Das spricht für dich ;-)
 
Das Linux in vielen Bereichen schneller ist als ein Solaris oder *BSD wird vermutlich keiner bestreiten wollen. Es wird seinen Grund haben warum diese ganzen riesigen HPC-Cluster mit Linux gefahren werden.
Allerdings ist möglichst schnell zu sein weder das Ziel von Solaris (oder *BSD), noch der Grund warum jemand es einsetzen würde. Gründe für den Einsatz von Solaris sind hier schon einige im Verlauf des Threads gefallen.
 
@mrtonik

genauso häufig wurde auch gesagt, dass Linux nicht skalieren würde und man deshalb zu Solaris greift..
 
Nett das du dich daran aufhängst, dass ich mich an der einen Stelle verlesen habe und nicht auf die anderen Punkte eingehst. Das spricht für dich ;-)

In dem Szenario wo ich tätig bin, kommt beides zum Einsatz.
Sowohl Linux (SLES, RHEL) als auch Solaris 10.

Wie gesagt, da geht es um HA und nicht um HPC.
Beides hat seine Berechtigung und seinen Markt. Die ultimative Lösung die alles erschlägt gibt es einfach nicht.

Das war noch nie anders.

Nicht alles was von Sun kommt ist fuer alles einsetzbar.

BSP, wir haben fuer unser Backup System zeitweise T5220 eingesetzt, auf dem Papier liest sich das mit Cores wunderbar. Leider hat Legato das Problem nicht mehr als zwei Threads parallel zu nutzen, das nützt natuerlich nichts wenn die restlichen Cores alle brach liegen. Fuer Apache sind die Kisten genial, alles was viele Threads benutzt nutzen kann ist auf den Maschinen gut aufgehoben. Nur ist das nicht der Fall hast Du natuerlich ein echtes Problem. Die Maschinen wurden durch M3000er ersetzt, die haben zwar weniger Cores, aber pro Core wesentlich mehr Dampf unter der Haube.


Trotzdem würde ich im HA Betrieb Solaris nicht gegen Linux austauschen wollen. Der Sun Cluster ist eine extrem ausgereifte Loesung, weder der Veritas Cluster (gibts auch fuer Linux) noch der RHEL Cluster ist in dem Bereich eine Alternative. Die Novell HA Loesung haut mich auch nicht vom Hocker. Wenn Novell und RH sich mal auf eine Loesung einigen koennten die auch sauber dokumentiert wird, dann wird das vielleicht auch mal was.

Google ist mit seinem Ganeti Kram auf einem guten Weg zumindest gefällt mir der Ansatz. Leider kann das Ding noch kein Failure Fencing und die Anzahl der Agenten ist extrem überschaubar.

Das LVM Gefrickel ist auch nicht das was ich mir wünsche. Aber vielleicht wird das noch mit ButterFS.

Die Stärken von Solaris liegen im integrierten Ansatz ich würd mir wünschen das Linux irgend wann an den Punkt kommt.

Klar ich kann Veritas für Linux kaufen, haben wir sogar gemacht. Du kannst die Diskgruppen aus der Solaris Maschine rausmappen und in den Linuxhobel einbinden, geht einwandfrei, ist natuerlich eine Kostenfrage. 8000 Oecken pro CPU ist schon ein Wort. ;)

Was Dein Argument mit dem Infiniband angeht, das will ich erst mal sehen. :D
Unsere Linuxkisten und die Solariskisten hängen an den gleichen Brocade DCxen und den gleichen Storages und bis jetzt hab ich weder auf den HDSen noch auf den Hosts selber gesehen das Solaris wie ein alter Traktor hinterher zockelt.

Das einzige was mich an Solaris nicht erst seit gestern stoert ist das Paketmanagement, da hat jedes andere Opensource System mehr zu bieten und ob IPKG der richtige Weg ist das wird sich erst noch zeigen muessen.

Aber man muss sich schon die Frage stellen was Oracle eigentlich will. Der Laden lässt FUD aus allen Ecken durch seine Ignoranz ja foermlich zu, klare Aussagen sind ja nicht zu kriegen. Sogar die eigenen Leute sind verunsichert.

Was die Skalierbarkeit angeht, zeig mir ein System vielleicht mal abgesehen von Irix was mit über 200 CPU's noch vernuenftig skaliert.

Oder zeig mir eine Intelmaschine wo ich on the Fly das Board tauschen kann, ohne die Büchse auszuschalten, bei unserer altgedienten E20k oder der neuen M9000 ohne Kopfschmerzen moeglich.

Was aus Sparc wird steht natuerlich auf einem ganz anderen Blatt und darf sicherlich angezweifelt werden. Was Oracle veranstaltet, macht mich jedenfalls nicht glücklich.
 
und ich nochmal

linux und ha = muell .......... weder das es einen verneuftige ip stack gibt
noch eine vernueftige failover loesung .

gerade im firewall umfeld ist linux das allerletzte was man einsetzen sollte.

holger
 
Hi,


leider kommen von den Uni's nur noch Linuxer oder Windows Leute. Weil die Professoren sich kaum noch mit Unix rumschlagen. Das ist leider sehr schade.
Auch muss man sich heute mit mehr deppen als Profis rumschlagen die meinen Linux ist das Super geile alles könner OS. Lustig nur wenn ich sehe das die Applikation unter Linux genauso Scheisse läuft wie unter Solaris.
Und (vielleicht hab nur ich das Pech in meiner Firma) heute sind viele Entwickler einfach zu Faul ihren Scheiß Code zu optimieren auf Threaded Core Systems wie Sparc.
Wenn die das mal machen würden, dann würden sich die teuren alten Sparc Systeme bei uns noch lohnen. Aber NEIN es muss Linux sein und INTEL.

Sorry, aber ich bin zwar selbst auch nebenbei Entwickler. Aber als Admin nervt es zunehmend sich mit immer mehr Spacken rumzuschlagen zu müssen, die meinen "wie Geil ihre Systeme (Frickel Linux) sind" die sie von zuhause kennen.
 
Hi,


leider kommen von den Uni's nur noch Linuxer oder Windows Leute. Weil die Professoren sich kaum noch mit Unix rumschlagen. Das ist leider sehr schade.
Auch muss man sich heute mit mehr deppen als Profis rumschlagen die meinen Linux ist das Super geile alles könner OS.

Woran nicht unbedingt die Unis oder die Profs schuld sind...
Bei uns an der Uni gibt es viel Sun, man kommt sogar problemlos an die Materialien für die Sun Zertifikate ran und kann sie kostengünstig machen, aber (mit Blick auf Solaris 5-9, AIX, HP-UX,..) man kann schlecht an Closed Source Betriebssystemen forschen, geschweige denn Leuten Unix an teuren Maschinen lehren, welche diese Systeme effektiv voraussetzen . Damit ist dann schnell klar, dass die Leute an den Unis statt echtem Unix eben Linux kennenlernen und es eben entweder besser finden als Windows- und dann glorifizieren - oder es scheiße finden - und dann drüber flamen.
Suns Schachzug Solaris zu öffnen war zwar edel, aber um an Unis Land zu gewinnen imo ein Jahrzehnt zu spät. In den Rechnerkabinetten von Unis kommt man damit nichtmehr weit (zumindest bei uns werden die alten Rays Stück für Stück ausgemustert) und auf den Servern haben Studis meistens eh nicht groß mit Administration oder ähnlichem zu tun, da das oft alles professionalisiert ist.
In der Forschung an Unis beschäftigt man sich mit sowad heute einfach auch nichtmehr, da man dort seit einem Jahrzehnt mangels offener Alternativen (um die BSDs mal ganz ungeschickt zu übersehen) eben Linux einsetzt.
Grade an Betriebssysteme-Lehrstühlen ist man dann auch öfter mit eigenem Gedönse (meist Hypervisorn oder Microkernels beschäftigt. Die interessiern natürlich noch viel weniger für ein altes Unix.

Da machen es Datenbankhersteller durch großzügige Hard/-Softwarespenden an die entsprechenden Lehrstühle und kostenlose Schulungen schon oft ein Stück intelligenter. Zumindest bei uns kann man sich als Student kostenlos von IBM zum DB2 Admin und/oder DB2 Entwickler zertifizieren lassen, Oracle ist auch nicht abgeneigt in Zukunft ähnliches anzubieten.

Somit kann ich eigentlich nur den Schluss ziehen, dass die Hersteller der proprietären Unixe (imo) zu einem großen Teil selbst an ihrer Situation Schuld sind.
 
In der letzten Phase meines Informatikstudiums, das jetzt nun auch schon wieder fast zwei Jahre her ist, ging der Trend der Studenten ganz klar zu Macbooks. Die hat man irgendwann fast überall gesehn.

Vorlesungen wie Systemprogrammierung, Betriebssysteme oder Embedded Systems gibt es doch mehr oder weniger an jedem Informatikfachbereich. Da wird nunmal C-Programmierung unter Linux betrieben. In Projektarbeiten konnte man uns auch stärker in die Materie eintauchen.

Ich erinnere mich an einen Prof. der sich selbst als alten Unix-Hasen bezeichnet hat ;-) Der hat Anfang der 90er für IBM AIX-Kurse gegeben und selbst der war/ist von Linux sehr begeistert.

Man muss ja nur mal bedenken, aus welchem Bereich gerade *BSD kommt: Nämlich aus der Uni und der Quelltext war immer verfügbar.

Meiner Meinung nach haben closed-sourced Systeme an einer Universität nichts und rein gar nichts verloren!
 
Zurück
Oben