Hallo,
was ist eigentlich mit Wikimedia Commons [2], dem Medianarchiv der Wikipedia? Es ist zwar ähnlich zentralistisch wie Youtube & Co, enthält dafür aber nur Inhalte unter freier Lizenz. Finanziert wird es, soweit ich weiß, ausschließlich aus Spendengeldern und falls jemand Bock haben sollte, kann er oder sie gern an der Verbesserung der Plattform mitwirken. Gute Ideen sowie Leute, die sie auch umsetzen, werden immer gesucht. Außerdem kann man die Videos, Audiomitschnitte, Bilder etc. auch gleich in Wikipediaartikeln verwenden.
[2]: https://commons.wikimedia.org/wiki/Main_Page
Ciao Norman
On 02.03.2016 17:21, N. Schwirz wrote:
Hallo,
die Diskussion über Onlineplattformen zum Selbsthosten von Konferenzvideos geht auf der Mailingliste der FSFE noch immer weiter. Kennt vielleicht jemand von euch ein entsprechendes Tool, das er empfehlen kann?
Ich habe der Übersicht halber hier mal Ausschnitte von drei, mir besonders interessant erscheinenden, Emails zusammengefasst. Der komplette Thread befindet sich unter [1].
So schreibt z.B. Wolfgang Romey (woro) woro@wolfgangromey.de:
wer sich einen Eindruck verschaffen will über den aktuellen Stand von Mediagoblin kann dies z.B. bei
machen. Dort läuft Version 0.82 dev.
Ich habe mich mal angemeldet und nach Medien gesucht. Die Suche nach Stallman liefert eine ganze Reihe von Videos. Dann habe ich auch selbst erste Medien hoch geladen. Es finden sich ein feed und die Möglichkeit für seine Account blogs anzulegen.
Was ich noch nicht herausgefunden habe, ist ob die Föderation mit anderen Instanzen statt findet. Ich denke, eher nicht. Das ist ja das eigentliche Problem, das weder mit owncloud noch z.B. beim CCC gelöst wird. Wenn ich Sachen vom CCC suche, sind die natürlich zu finden, weil man beim CCC suchen wird. Wie finde ich aber andere Medien? Es muß eine Lösung gefunden werden, die möglichst viele Instanzen vernetzt, nur dann werde ich ein Angebot haben, das geeignet ist, Nutzer anzuziehen. Diese Aufgabe ist aber wohl sehr schwer zu lösen.
Viele Grüße
Wolfgang
Und Paul Hänsch paul@fsfe.org hält ein Plädoyer für Spezifikationen statt erstmal drauf los zu programmieren.
On 2016-02-29 22:44, Florian Ermisch wrote:
Oh, jetzt ist pump.io tot, aber status.net lebt als GNU social weiter? Hatte ich nicht wirklich mitbekommen ^^"
Sowas schläft eben ein wenn der Entwickler den Bachelor fertig hat. Anstatt ein Protokoll zu beschreiben, oder zu spezifizieren welche Informationen überhaupt übertragbar sein sollen, haben uns diese Projekte mit einer API-Definition gesegnet. Die Entwicklerdoku fängt dann an mit: "lad unsere Ruby/NodeJS/Go Bibliothek runter und führe unseren Code aus und wir machen dann alles für dich". Als Entwickler ekel ich mich vor sowas. Um eine Technologie zu verbreiten Skaliert das auch nicht so richtig.
Am anderen Ende des Spektrums stehen RSS und Atom, diese sind ausgezeichnet dokumentiert, vielfach implementiert, und erweiterbar. Authentifizierung und Integritätsnachweise können jeweils auf Ebene des Transportprotokolls (HTTP/HTTPS) eingerichtet werden. Wordpress nutzt den Ansatz seit (>10) Jahren um Querverlinkungen und Leseempfehlungen zu verbreiten.
Vermutlich wäre es bei sowas sinnvoll, den Mechanismus der Kommunikation Server-zu-Server nicht direkt zu spezifizieren, also nicht auf ein Protokoll/eine API festzulegen.
An einem einheitlichen Protokoll ist nichts verkehrt. Nur ein kleiner Tip für das Bullshitradar: Wenn die Protokollspec mit Downloadlink und Installationsanleitung beginnt, dann ist es keine.
Dann bedeutet der Wegfall einer Plattform nicht ein Ende der Kommunikation.
Kleine historische Leseprobe: https://en.wikipedia.org/wiki/Openid https://en.wikipedia.org/wiki/Oauth
OAuth ist eine weitestgehend sinnvolle Erweiterung von OpenID, beides sind offene Standards. Allein hat man bei OAuth unglücklicherweise die Funktion zur Ermittlung des Service-Endpunkts vergessen. Der Benutzer kann damit damit bei OAuth keinen ID-Anbieter mehr frei eingeben. Stattdessen stellt der Diensteeanbieter eine Auswahl zwischen den ID-Anbietern, die er schon kennt. Jedesmal wenn euch eine Webseite anbietet euch entweder via Google+ oder Facebook oder Twitter ainzuloggen, habt ihr es mit OAuth zu tun. Ratet mal wer beim Protokollentwurf im Komitee saß.
Wie auch OpenID ist das Protokoll zwischen Plattformen übertragbar, anders als dort sind die verwendbaren Plattfomen aber mehr oder minder zentral festgelegt. Fällt eine weg [*], endet die Kommunikation für ein Groß der Teilnehmer auf einmal. Mein Punkt bei der Sache: weder Freie Software noch ein offener Standard sind alleinige Garanten für eine Netzwerkstruktur, die zur Teilnahme einlädt.
- Der Wegfall einer Plattform besteht effektiv auch dann, wenn
einem das Benutzerkonto gesperrt wird, oder die AGBs untragbar werden (und idR. sind sie das ja schon).
Ist aber natürlich aufwändiger zu implementieren.
Wenn ein Programmierer ein Netzwerksystem entwirft, dann erwarte ich dass der Entwurf mit der Beschreibung des Transferformats beginnt. Drauf los zu programmieren und hinterher die Funktionsschnittstellen zu erklären, die dabei entstanden sind ist ganz *hust... unerfahren.
Muss denn jeder Knoten jedes Video vorhalten? Da fallen mir schon zwei andere Varianten ein: - - Auf dem kleinen, privaten Server können privilegierte User zu spiegelnde Videos festlegen - - Größere öffentliche Instanzen können nen Schwellenwert setzen, ab wievielen "Likes" ein Video gespiegelt wird und bei zuendegehendem Speicherplatz eventuell unbeliebtere "rausaltern" lassen
Braucht übrigens nicht im Protokoll festgelegt werden, weil es ohnehin alleinig in der Entscheidunsmöglichkeit jedes Knotens liegt.
Zusätzlich kann die Quelle in den Metadaten festgehalten werden, so daß der dritte Knoten schon den ersten und zweiten kennt und anderen als weitere (mögliche) Quellen angeben kann, wenn er selber Quelle ist.
Schon wieder denke ich an RSS.
Wenn man beim Transportmechanismus zwischen Servern auch Plugins/Module erlaubt, ließen sich zusätzliche Protokolle wie Rsync oder BitTorrent nutzen - und Usern könnte man zum Download gleich einen Metalink anbieten.
Schon wieder denke ich an RSS.
Wenn man nur die Links verteilt und die Videos auf den jeweiligen Instanzen bleiben, hat man immerhin den Vorteil einer durchsuchbaren Lösung, dann halt ohne Redundanz.
Ich weiß nicht, wie man bei sowas eine "globale" Durchsuchbar- keit ermöglichen würde, aber eine optionale Redundanz der Videos würde vermutlich ausreichen.
Wie finden wir denn Texte und Bilder? Das geht doch über Suchmaschinen ganz gut. Diese sind zwar ihrerseits eher zentralistisch, das hat aber immernoch eine ganz andere Qualität als die Inhalte bei Vimeo zu zentralisieren.
[...] Und Videos sollten UUIDs oder ähnlich große Prüfsummen als Identifikationsmerkmal benutzen, die für eine Indizierung genutzt werden können.
Schon wieder denke ich an RSS. (und BitTorrent)
Mögliche Kandidaten für eine solche Lösung wären GNU social oder Hubzilla (es gibt bestimmt noch mehr, die ich nicht kenne).
Klick mal den Downloadbutton da weg und lies was durchdachtes: https://tools.ietf.org/html/rfc4287
-- Paul
_______________________________________________ fsfe-de mailing list fsfe-de@fsfeurope.org https://mail.fsfeurope.org/mailman/listinfo/fsfe-de
Florian Snow floriansnow@member.fsf.org schreib über Popcorn Time:
Popcorn Time klingt wirklich nach einer guten Lösung, vor allem weil Bittorrent viele der Probleme mit Bandbreite und Datenvorhaltung elegant löst.
Happy hacking! Florian
On 29.02.2016 17:17, N. Schwirz wrote:
Hallo,
in der nachfolgenden Email gehts um eine kürzlich von Richard Stallman gehaltene Rede über Freie Software und Fragen zur Lizenzwahl aber auch um dystopische Überwachungstendenzen.
Nun stellt sich mir die Frage, ob es wirklich sinnvoll ist, für Kritik hauptsächlich die Plattform eines Kritisierten zu verwenden. Wäre es nicht besser und nachhaltiger, sie auf eigenen (unabhängigen) Servern zu hosten und dann darauf zu verlinken.
Norman
Hallo Norman,
Wikimedia Commons ist natürlich eine tolle Sache, ist aber nicht gedacht für lange oder gewöhnliche Videos, gewöhnliche Musik und grosse Bildsammlungen, sondern für Medien, die etwas Enzyklopedisches darstellen.
Ich möchte dich noch bitten bei deinen Posts auf dieser Liste die unteren Zitate wegzulassen oder zu kürzen oder editieren. Sonst bläht sich jeder Beitrag zum Thema immer mehr auf.
Liebe Grüsse, Theo
Am 07.03.2016 um 09:38 schrieb N. Schwirz:
was ist eigentlich mit Wikimedia Commons [2], dem Medianarchiv der Wikipedia? Es ist zwar ähnlich zentralistisch wie Youtube & Co, enthält dafür aber nur Inhalte unter freier Lizenz.
...
Hallo zusammen,
Am 07.03.2016 um 17:52 schrieb Theo Schmidt:
Hallo Norman,
Wikimedia Commons ist natürlich eine tolle Sache, ist aber nicht gedacht für lange oder gewöhnliche Videos, gewöhnliche Musik und grosse Bildsammlungen, sondern für Medien, die etwas Enzyklopedisches darstellen.
Da denke ich eher an https://archive.org.
Ich möchte dich noch bitten bei deinen Posts auf dieser Liste die unteren Zitate wegzulassen oder zu kürzen oder editieren. Sonst bläht sich jeder Beitrag zum Thema immer mehr auf.
+1
Viele Grüße Michael