1-7 von 7
Sortieren:
    7
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hinweisen, hin weisen, dass dies prinzipiell nicht möglich ist:

    a.1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    a.2. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    a.3. Das Ranking ist volatil

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und vor deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    6
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

    a.1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    a.2. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    a.3. Das Ranking ist volatil

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und vor von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    5
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

    a.1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    a.2. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    a.3. Das Ranking ist volatil Volatilität des Rankings

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    4
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

    a.1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    a.2. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    a.3. Volatilität des Rankings

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    3
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

      1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

      1. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

      1. Volatilität des Rankings

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    2
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

    1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    1. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    1. Volatilität des Rankings

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter

    1
    Dr. Christian Kohlschütter · angelegt
     

    In Deinem Blogpost auf suma-ev.de, den Du in diesem Vorschlag zitierst, beklagst Du expressis verbis eine Manipulierbarkeit der "Ausgabereihenfolge der Ergebnisse (Ranking) der Suchmaschine" und forderst Transparenz der Ranking-Algorithmen. Darauf nehme ich Bezug und verweise auf meine Blog-Antwort, um hier nicht allzuviel doppelt zu schreiben.

    Wenn dies nicht Teil des Diskussionsvorschlags sein soll, bitte ich Dich, dies richtig zu stellen. Die Kommentare meiner Vorredner lassen erkennen, dass dies tatsächlich so verstanden werden kann, wie ich es auch interpretiert habe.

    A.

    Sollte tatsächlich gefordert werden, über eine Art Ranking-Aufsicht die Verfahren von Suchmaschinen zwangsweise einsehen zu dürfen, um Manipulationen aufzudecken bzw. auszuschließen, muss ich schon aus wissenschaftlicher Sicht darauf hin weisen, dass dies prinzipiell nicht möglich ist:

    1. Es gibt per Definition keine neutralen Suchergebnisse.

    Die üblich verwendeten Verfahren der Link-Analyse basieren auf dem Prinzip des "Preferential Attachments" bzw. einem Skalengesetz, das ganz von selbst, aus dem menschlichen Verhalten genährt, einige wenige Seiten aus der Masse der möglichen herausstechen lässt. (Dies findet sich z.B. auch in der Verteilung der Städtegrößen -- Zipf'sches Gesetz). Das PageRank-Verfahren, das Google damals in der Startup-Phase zur populärsten weil besten Suchmaschine gemacht hat, nutzt diese Eigenschaft.

    1. Die Ranking-Verfahren besitzen mehrere hundert Parameter

    Von den hunderten Parametern (bzw. prinzipiell Milliarden von Features, wenn man Sprachmodelle, Link-Matrizen usw. dazu rechnet) , die Google einsetzt, sind einige wenige ausschlaggebend, ob eine Seite in den top-10 landet. Es ließen sich immer ausreichend viele Parameter-Kombinationen konstruieren, die für eine bestimmte Anfrage ein Angebot nach oben oder unten ranken. Eine Manipulation der an Google gestellten Anfragen rechtssicher nachzuweisen bzw. auszuschließen halte ich für nicht möglich.

    1. Volatilität des Rankings

    Die Suchverfahren werden natürlich kontinuierlich weiterentwickelt. Noch schneller verändern sich aber die Features bzw. die durchsuchbare Dokumentmenge (das Web) und damit eben auch das Ranking. Solange dies nicht "überwacht" wird, ist eine punktuelle Überprüfung nicht aussagekräftig.

    B.

    Dass sich aus dem "Preferential Attachment"-Verhalten des Menschen heraus einige wenige Big Player auch im Internet herausbilden, ist hinzunehmen.

    Es ist selbstverständlich den öffentlich/staatlich finanzierten Einrichtungen wie Universitäten und Militär zu verdanken, dass das Internet und später das World Wide Web überhaupt entstehen konnten. Auch die Netzanbieter haben bei Spezifikation und Umsetzung der Infrastruktur Großes geleistet. Dass nun im Zuge der breiten Kommerzialisierung auch global agierende Firmen die Weiterentwicklung in Ihrem Sinne vorantreiben, ist doch genauso legitim wie in anderen Sparten). Es bedarf keiner benachteiligenden "Sonderbehandlung" von Internet-Portalen und Suchmaschinen.

    Es ist im übrigen auch hinzunehmen, wie privatrechtliche Internet-Anbieter Suchergebnisse ranken bzw. Informationen im allgemeinen präsentieren. In der "analogen Welt" schreibt man den Super-Märkten auch nicht vor, wo im Regal welche Produkte zu stehen haben. Es steht ferner jedem einzelnem frei, ob er/sie Gemüse auf dem Bauernmarkt kauft oder beim Discounter. Genauso darf jeder mündige Bürger entscheiden, ob er/sie Google, Bing, Facebook, Amazon, eBay oder einen "Online-Shop Holzspielzeug" nutzt.

    Es gibt ein Recht auf informationelle Selbstbestimmung, aber eben auch eine Verantwortung, sich bewusst und selbstbestimmt zu informieren. Diese Kompetenz sprichst Du den Internet-Nutzern ab, wenn Du gegen "Oligarchen" wetterst, die ja gerade erst durch die Nutzer so großen Erfolg verzeichnen können.

    C.

    Wenn man etwas beklagen möchte, dann dass Deutschland die massive Förderung von Forschung, Entwicklung und auch Bildung im Bereich Web Science (im Gegensatz zu den USA) schlicht und ergreifend verschlafen hat. Web Science fristet in Deutschland ein Nischendasein.

    Finanzielle Förderanreize sind sicher wichtig, aber vor allem muss es eben auch Rechtssicherheit geben. Mit den aktuellen Debatten zu Regulierung, zu Leistungsschutzrechten, zu Software-Patenten wie schlussendlich auch hohe Anforderungen an den Datenschutz haben wir hierzulande einfach noch sehr viele Baustellen, die dafür sorgen, dass Innovationen dort stattfinden, wo es solche Hürden nicht gibt.

    Facebook und Google sind doch beste Beispiele dafür. Das ist keine Illusion, sondern Realität. Beide Firmen haben als kleine Startups angefangen und sind relativ unbekümmert hinsichtlich Urheberrechte (und auch Datenschutz) vorgegangen, dem US-amerikanischem Fair-Use Prinzip sei Dank.

    In Deutschland wären beide Unternehmen wohl nicht so vorangekommen. Ich kann aus eigener Erfahrung sprechen. Hier wird man verklagt und von deutschen Gerichten als Schmarotzer bezeichnet, wenn man eine innovative Suchmaschine entwickelt.

    Dr. Christian Kohlschütter