Benutzer Diskussion:Wurgl/Mehrfache Linktexte
Letzter Kommentar: vor 4 Jahren von Leyo in Abschnitt Vorlage:Global Terrorism Database
@Leyo: bin erst jetzt dazugekommen. 7454 Artikel sind das jetzt. --Wurgl (Diskussion) 19:48, 9. Mai 2020 (CEST)
- Hm, betrifft dies nur die Fälle mit gleich lautenden Einzelnachweisen, aber unterschiedlichen Weblinks? Auf der Vorderseite sind jedenfalls deutlich weniger Artikel aufgeführt. --Leyo 22:07, 9. Mai 2020 (CEST)
- Naja, ich hab die Vorderseite erstmal auf 30.000 Zeichen begrenzt. Sonst wird das Ding fast 1 MB groß und das ist wohl etwas viel. --Wurgl (Diskussion) 23:29, 9. Mai 2020 (CEST)
- Oh, dann sollten wir uns überlegen, wie man die Beschriftung der Einzelnachweise effizient verbessern kann. Wenn es ausser dem Weblink und einer kurzen Linkbeschriftung nichts gibt, so könnte man ggf. die im VisualEditor implementierte Konvertierungsfunktion verwenden. @Invisigoth67, Crazy1880, Lómelinde, RonMeier: Habt ihr allenfalls bessere Ideen? Den Hintergrund findet ihr unter Wikipedia:Fragen zur Wikipedia/Archiv/2020/Woche 18#Gleichlautende aber unterschiedliche Einzelnachweise. --Leyo 00:40, 10. Mai 2020 (CEST)
- Ideen habe ich dazu keine, manchmal lasse ich so etwas über Citoid laufen, das macht es ähnlich wie der VisualEditor (VE) zu einem Link mit Vorlage, wobei das oft Nacharbeit bedeutet. Leider mache beide Hilfsmittel (basierend auf Zotero) das auch nicht immer so toll und dann kommt manchmal der Fernsehsender NDR in eine Vorlage:Literatur (fiktives Beispiel) oder umgekehrt ein Buch (oder eine Zeitschrift) in die Vorlage:Internetquelle.
- Vorteil beim Citoid ist, dass man oft sofort erkennen kann, dass ein Link tot ist, weil das Werkzeug dann mit :-( reagiert. Einige dieser Dinger erzeuge ich vermutlich selbst, weil ich aus nackten Links https://example.org immer automatisch geklammerte Links example.org erzeugen lasse, damit nicht im schlimmsten Fall ein http[s]…bandwurm (https://books.google.de/books?id=jJufAAAAMAAJ&q=John+D%C3%A4hmcke&dq=John+D%C3%A4hmcke&hl=de&sa=X&ei=knlWT_rIE4fEsgbZ7r3lBg&ved=0CC8Q6AEwADgU) im Artikel steht, sondern dann wenigstens ein halbwegs formatierter Link books.google.de. Ich hatte dein Beispiel wohl gesehen, aber da müsste man jeden einzelnen Eintrag von Hand umbauen.
- Citoid würde beispielsweise aus energie-lexikon.info das machen:
- Dr Rüdiger Paschotta: Power to Gas - ein Hype? In: energie-lexikon.info. www.energie-lexikon.info, abgerufen am 10. Mai 2020.
- Oh, dann sollten wir uns überlegen, wie man die Beschriftung der Einzelnachweise effizient verbessern kann. Wenn es ausser dem Weblink und einer kurzen Linkbeschriftung nichts gibt, so könnte man ggf. die im VisualEditor implementierte Konvertierungsfunktion verwenden. @Invisigoth67, Crazy1880, Lómelinde, RonMeier: Habt ihr allenfalls bessere Ideen? Den Hintergrund findet ihr unter Wikipedia:Fragen zur Wikipedia/Archiv/2020/Woche 18#Gleichlautende aber unterschiedliche Einzelnachweise. --Leyo 00:40, 10. Mai 2020 (CEST)
- Naja, ich hab die Vorderseite erstmal auf 30.000 Zeichen begrenzt. Sonst wird das Ding fast 1 MB groß und das ist wohl etwas viel. --Wurgl (Diskussion) 23:29, 9. Mai 2020 (CEST)
- Das ist auch nicht toll weil dort
energie-lexikon.info
quasi doppelt vorkommt. Besser wäre wohl dann- Rüdiger Paschotta: Power to Gas – ein Hype? In: RP-Energie-Lexikon. Abgerufen am 10. Mai 2020.
- Ich könnte mir einen Botauftrag vorstellen, der aus einer URL wie dieser
- https://www.energie-lexikon.info/power_to_gas__ein_hype.html einen Eintrag
- Power to Gas – ein Hype? energie-lexikon.info
- generiert, gekennzeichnet als <!--Bot generated title--> oder deutsch <!--Automatisch generierter Titel-->. Irgendwo gibt es einen solchen Bot wohl. Mehr fällt mir dazu nicht ein. --Liebe Grüße, Lómelinde Diskussion 07:33, 10. Mai 2020 (CEST)
- Das ist auch nicht toll weil dort
- Moin Moin zusammen, mal ganz doof nachgefragt,
- gibt es denn überhaupt erstmal eine Übersicht von Artikel wo wirklich ein Link mehrfach vorkommt? Also gleicher Link, gleicher Text!
- Die Idee von Lómelinde via Botauftrag finde ich zwar grundsätzlich überlegenswert, aber leider haben wir auch viele Links, die generische Zahlen- und Buchstabenfolgen haben. (z.B.: filmdb.de#kjgsaids1265sdn)
- Über weitere Ideen müsste ich mal etwas überlegen. mfg --Crazy1880 10:13, 10. Mai 2020 (CEST)
- Gleicher Link, gleicher Text ist erstmal rausgenommen. Die Infos hab ich, könnte ich generieren. (da fällt auch http vs. https darunter, das Protokoll ignoriere ich)
- Ich hab auch einen Fall gesehen, wo der selbe Link mal im Webarchiv und mal direkt im Artikel war. (das ist vorne zu sehen)
- --Wurgl (Diskussion) 12:32, 10. Mai 2020 (CEST)
- Moin Moin zusammen, mal ganz doof nachgefragt,
- Soviel ich weiß, gibt es einen Bot, der für komplett unformatierte Einzelnachweise von ein paar häufigen Internetquellen wie Spiegel Online die Formatierung aus den Metadaten der Webseiten generiert. Ich habe vor längerer Zeit ähnliches fallweise für ein paar kleinere Zeitungs-Internetquellen gemacht, aber nur halbautomatisch, da sich ab und an die Struktur der Webseiten-Metadaten geändert hat, was dann zu Fehlern bzw. falsch angezeigten Informationen geführt hätte. Stellt sich die Frage, ob wirklich eine "one bot fits all"-Lösung möglich ist, die vollautomatisch und fehlerfrei funktioniert. lg --Invisigoth67 (Disk.) 12:04, 10. Mai 2020 (CEST)
- Habe dem bereits Gesagten nichts zuzufügen, es läuft auf Handarbeit hinaus - und bei manchen Artikeln kann/will man sich das einfach nicht antun. --RonMeier (Diskussion) 18:46, 10. Mai 2020 (CEST)
- @Wurgl, ich glaube du meinst den Benutzer:CamelBot und damit den Betreiber lustiger_seth, den ich hiermit mal anpinge, vllt. kann er etwas dazu sagen, was möchlich ist und was nicht. mfg --Crazy1880 15:11, 10. Mai 2020 (CEST)
- Lómelinde hat den Bot eingebracht, ich bin unschuldig ;^) --Wurgl (Diskussion) 16:59, 10. Mai 2020 (CEST)
- gudn tach!
- von den oben aufgelisteten aufgaben fuehrt CamelBot bisher keine durch. er ersetzt z.b. short-urls durch lange, aussagekraeftigere urls (z.b. von sz, faz, google und vor allem archive.today), aber die beschreibungen fasst er nicht an.
- bei bestimmten websites wie dem genannten SPON koennte man sich die daten schon recht gut automatisiert zusammenkratzen, weil die ihre meta-daten in einem semantischen json-format hinterlegen:
curl -s https://www.spiegel.de/politik/ausland/in-irak-und-syrien-errichtet-isis-einen-terrorstaat-im-nahen-osten-a-974514.html | perl -0ne 'use JSON; /<script type="application\/ld\+json">(.*?)<\/script>/s; my $j = JSON->new->utf8->decode($1); use Data::Dumper; print Dumper $j->[0];'
- bei einigen grossen (modernen) medien funktioniert das und da kann man den daten wohl auch vertrauen. bei den meisten websites wuerde das jedoch nicht funzen und man kaeme nur mit sehr viel heuristiken und sehr unzuverlaessig an die gewuenschten meta-daten. da sollte das ein mensch uebernehmen. -- seth 00:20, 11. Mai 2020 (CEST)
Ich habe die Vorlage:Global Terrorism Database angelegt, bei welcher sich die Einzelnachweise durch die angezeigte GTD ID
unterscheiden. Ich habe entsprechende Einzelnachweise in > 100 Artikeln halbautomatisch durch die Vorlage ersetzt, aber es gäbe noch weiteres Ersetzungspotential. Falls jemand also geschickter ist als ich … --Leyo 11:19, 26. Mai 2020 (CEST)