heb die mal übern kopf und lass sie dann los... danach reden wir weiter
gibts aba für die xbox überhaupt so (viele) multiplayer games die man gemeinsam an einer konsole zoggen kann? das ding is doch mit windows-live auf onlinezoggen ausgelegt?
na die standard fifa und restl. sportgeschichten gibbet da schon.
aber bei fifa würd ich das 1. mal cross-over-play auspacken:
1. faulen (aus versehen)
2. dann reklamieren
3. dann das gute alte nhl auspacken/kombinieren
greetz, eastwood
Ich denke eh, dass 'normale' Spiele damit nicht gespielt werden können. Und wenn dann ist es wie bei der Wii eine Kombination mit Kontroller und Bewegung. stell dir sonst mal GTA vor.. Stundenlang durchs Wohnzimmer rennen, in Deckung hinter der Couch gehen usw.. oder Mario Hüpfst dann wie ein Känguru durchs Wohnzimmer! ich denke da wird es ähnlich wie für Wii erstmal speziell designte Spiele geben! Nach und nach wird man neue Ideen haben, wie das Potenzial dieser Steuerungsmöglichkeit besser genutzt werden kann.
Aber trotzdem ist das absolut Hammer! wie gesagt, ich würds mir kaufen!
Zitat von diesem Eastw00d a.k.a. teh Hegger: wow du bist echt epic!
Mit Layar und dem Wikitude World Browser sind zwei Anwendungen für Android-Smartphones auf dem Markt, die Augmented Reality (AR) nutzen, um unterwegs die reale Welt mit der digitalen zu verbinden. ORF.at hat mit den Entwicklern über die Zukunftschancen dieser Technologie auf Mobiltelefonen gesprochen.
"Die Zukunft von Mobilanwendungen liegt darin, die digitale Welt mit der Realität zu verknüpfen. Diese Entwicklung wird massiv, wir stehen gerade erst am Anfang", schwärmt Maarten Lens-FitzGerald, Mitbegründer der niederländischen Firma SPRXmobile, über die neue Technologie Augmented Reality (AR). Sein Unternehmen steckt hinter einer der ersten AR-Anwendungen, mit der man als Smartphone-Nutzer "durch die Welt browsen" kann: Layar. Derzeit nur in den Niederlanden für Android-Smartphones erhältlich, wird die Anwendung bis zum Jahresende sowohl das iPhone erobert haben als auch in Österreich erhältlich sein.
an sich ne geile sache aber ich kann mir vorstellen, dass es sehr nervt wenn auf dauer die häuser blinken (ohne drogen)^^.
aber im bürokratieland d-land kommt das sicher nie an -.-
mfg,
jinzo
ps ich würd n fettes ClanSt an die wand postn
Nervig ist halt, dass man immer den Rand vom Monitor sieht. Dann kaufe ich mir lieber gleich nen Monitor mit 2-3m Diagonale. Hab dann zwar nicht diese Auflösung, aber ein komplettes Bild ohne Unterbrechung.
Aber trotz allem ist solch ein Array technisch betrachtet echt beeindruckend. Bearbeitet von mastarpi am 23-09-2009 13:10
Zitat von diesem Eastw00d a.k.a. teh Hegger: wow du bist echt epic!
Der von mastarpi angesprochene rand is das K.O.-Kriterium für mich. Ganz davon abgesehen, dass die Monitore nie den gleichen Farbwert haben werden. Für was gibts Full-HD Beamer.
*edit by Daz* klappt doch
Edit by Ma*: Ich bin wohl zu glatt.. Danke! Aber ich könnte mich auch einfach rausreden und sagen: Ich wollte ja nur mal nen Jinz bauen!
Bearbeitet von mastarpi am 24-10-2009 16:26
Zitat von diesem Eastw00d a.k.a. teh Hegger: wow du bist echt epic!
Forscher basteln gerade an einer Möglichkeit, die Anode in Batterien durch ein Netz von Nanowires (Nanometer dicke Drähte ) zu ersetzen. Der Vorteil dieses Netzes liegt in der großen Oberfläche, auf welcher dementsprechend viel mehr Ladung gespeichert werden kann.
Das hätte zur Folge, dass bis zu 10x so viel Ladung gespeichert werden könnte und dementsprechend Li-Ionen-Accus bis zu doppelt so lange halten würden (fragt mich nicht, warum bei 10facher Ladung nur doppelt so lange Strom geliefert werden kann.. o_O Das frag ich mich nämlich auch! ). Anwendung gäbe es ja genug, vom Handy übern Laptop bis hin zu großen Batterien im Kraftfahrzeugbereich.
in zukunft sollen sowohl ie, als auch feuerfuchs gpu unterstützung bieten, was ich persöhnlich klasse finde wegen der erhöhten leistung!
zum anderen setzt es intel unter druck, die meiner meinung nach nicht wirklich schnell ihre cpu leistung erhöhen- tick tock hin oder her!
ende 08 wurden die core 7er vorgestellt, seitdem hat sich im enthusiasten bereich ausser producktanpassungen nicht viel getan und es dauert auch noch bis 1.-2. quartal 2010 bis 32nm highest end kommt .
bei grakas ist sowas aufgrund des (spannenden) konkurenzkampfs zwischen amd und nvidia nicht denkbar.
Naa, ich gleube es geht hier hauptsächlich um dioe Enegiedichte (/kg), aber was mir noch überhaupt nicht klar ist, wo die Elektroden bei dem Ding sein sollen? (Ganz zuschweigen, wie der Strom erzwugt wird: Durch aufladen, oder durch oxidation von den Nanotubes?)
Ich weiss noch nicht, was man davon halten soll, wenn nur so wenig infos gegeben wird ... sieht nach nem Video aus, das primär Forschungsgelder reinbringen soll ...
Ich kann mir auch nur den Abstract durchlesen. Das Institut hat diese Zeitschrift nicht abboniert, daher Geld gegen Artikel! Das Video kann ich mir auch erst zu Hause ansehen.. Hab hier aber noch nen ausführlicheren Artikel gefunden, aber auch den werd ich mir erst heute abend ansehen!
@Garfield: Die dürfen sicherlich erstmal noch nicht zu viel verraten. Einerseits sind vllt die Patentrechte noch nicht geklärt (obwohl sie dann sicherlich überhaupt nix sagen würden) und andererseits will man natürlich nicht sein ganzes Pulver für einen Angriff verschießen. Wissenschaftler werden nach der Anzahl der Veröffentlichungen bewertet und aus diesem Thema kann man bestimmt einige Veröffentlichungen heraus holen.
Bearbeitet von mastarpi am 11-12-2009 18:34
Zitat von diesem Eastw00d a.k.a. teh Hegger: wow du bist echt epic!