Lösungen
3.2 Übertragungsprotokolle SRU und OAI-PMH
Aufgabe 1
curl "http://sru.swissbib.ch/sru/search/defaultdb?query=+dc.possessingInstitution+%3D+E01+AND+dc.anywhere+%3D+Albert+Einstein&operation=searchRetrieve&recordSchema=info%3Asrw%2Fschema%2F1%2Fmarcxml-v1.1-light&maximumRecords=100" > einstein.xml
Aufgabe 2
curl "http://oai.swissbib.ch/oai/DB=2.1?verb=ListRecords&metadataPrefix=m21-xml%2Foai&set=A&from=2017-10-31" > swissbib-2017-10-31.xml
Bonusaufgabe
- Rufen Sie den Explain-Befehl der SRU-Schnittstelle von Swissbib auf. Im XML gibt es ein Element
ns:schemaInfo
in dem Informationen zu den angebotenen Metadatenformaten stehen. Bei Dublin Core ist im Attributlocation
ein XSL-Stylesheet verlinkt. Diesem sind konkrete Transformationsanweisungen zu entnehmen, siehe Interpretation in Kapitel 3.6.
3.5 Verarbeitung von MARC21 mit OpenRefine
Aufgabe 2
JSON-Datei mit Transformationsregeln für ein Mapping von MARC21 auf Dublin Core: openrefine-marc2dc.json
Ergebnis als TSV-Datei: openrefine/einstein-nebis_2017-11-02.tsv (speichern Sie Datei zur Verwendung in Kapitel 4 als einstein.tsv
im Ordner Downloads
)
Folgende Mappings wurden darin exemplarisch umgesetzt:
- contributor: 700/710/711 jeweils a,D,d,e
- coverage: 651 a
- creator: 100 a,D,d,e
- date: 008 Zeichen 7-10
- description: 500-599 ohne 506, 530, 540, 546
- extent: 300a
- format: LDR Zeichen 6 (codes aufgelöst nach MARC Spezifikation)
- identifier: 020/022/024 jeweils a
- language: 008 Zeichen 35-37
- pages: Zahlen aus extent mit RegEx extrahiert (kein Dublin Core, individuelles Zusatzfeld)
- publisher: 260 a,b
- title: 245 a,b
- type: 655a (nachbearbeitet mit uniques-Funktion)
3.6 Bonus: Vergleich mit Crosswalk-Ergebnissen
Folgende Regeln stehen (leicht vereinfacht) darin:
- dc:id aus MARC 001
- dc:creator aus MARC 100, 110, 111, 700, 710, 711, 720
- dc:title aus MARC 245 a,b,f,g,h,k
- dc:type aus MARC 655 und aus leader
- dc:publisher aus MARC 260a und 260b
- dc:date aus MARC 260c
- dc:language aus MARC controlfield 008
- dc:format aus MARC 856q
- dc:description aus MARC 500a bis 599a (ohne 506, 530, 540 und 546)
- dc:subject aus MARC 600, 610, 611, 630, 650, 653, jeweils a,b,c,d,q
- dc:coverage aus MARC 752a, 752b, 752c, 752d
- dc:relation aus MARC 530a, 530b, 530c, 530d, 530u und aus 760, 762, 765, 767, 770, 772-777, 780, 785-787 jeweils o und t
- dc:identifier aus MARC 856u und 020a
- dc:rights aus MARC 506a, 540a
4.5 Bonus: Weitere Daten indexieren
Aufgabe 1
Starten Sie OpenRefine (~/openrefine-2.7/refine
) und laden Sie das in Kapitel 3.5 bearbeitete Projekt (die Schritte aus dem Tutorial sollten bereits durchgeführt sein).
Wenden Sie die folgende JSON-Datei mit Transformationsregeln für ein Mapping auf Dublin Core an: openrefine-powerhouse.json
Exportieren Sie die Daten als TSV und speichern Sie die Datei im Ordner Downloads
. Ergebnis: openrefine/powerhouse.tsv
Aufgabe 2
curl "http://localhost:8983/solr/htw/update/csv?commit=true&separator=%09&split=true&f.contributor.separator=%E2%90%9F&f.coverage.separator=%E2%90%9F&f.creator.separator=%E2%90%9F&f.date.separator=%E2%90%9F&f.description.separator=%E2%90%9F&f.extent.separator=%E2%90%9F&f.format.separator=%E2%90%9F&f.identifier.separator=%E2%90%9F&f.language.separator=%E2%90%9F&f.pages.separator=%E2%90%9F&f.publisher.separator=%E2%90%9F&f.title.separator=%E2%90%9F&f.type.separator=%E2%90%9F" --data-binary @- -H 'Content-type:text/plain; charset=utf-8' < ~/Downloads/powerhouse.tsv
5.3 Konfiguration von TYPO3-find erweitern
page = PAGE
page.100 < styles.content.get
page.javascriptLibs.jQuery = 1
page.includeJS.find = EXT:find/Resources/Public/JavaScript/find.js
plugin.tx_find.features.requireCHashArgumentForActionArguments = 0
plugin.tx_find.settings {
connections {
default {
options {
host = localhost
port = 8983
path = /solr/htw
}
}
}
standardFields {
title = title
snippet = creator
}
facets {
10 {
id = format
field = format
sortOrder = count
}
20 {
id = language
field = language
sortOrder = count
}
30 {
id = date
field = date
sortOrder = count
}
}
}