{"id":2631,"date":"2018-11-10T11:19:56","date_gmt":"2018-11-10T11:19:56","guid":{"rendered":"https:\/\/www.eaid-berlin.de\/?p=2211"},"modified":"2018-11-10T11:19:56","modified_gmt":"2018-11-10T11:19:56","slug":"eaid-unterstuetzt-die-universal-guidelines-on-artificial-intelligence-ugai","status":"publish","type":"post","link":"https:\/\/www.kai-wittenburg.de\/?p=2631","title":{"rendered":"EAID unterst\u00fctzt die Universal Guidelines on Artificial Intelligence\u00a0 (UGAI)"},"content":{"rendered":"<h3><b>EAID unterst\u00fctzt die Universal Guidelines on Artificial Intelligence<span class=\"Apple-converted-space\">\u00a0 <\/span>(UGAI)<\/b><\/h3>\n<p>Die Europ\u00e4ische Akademie f\u00fcr Informationsfreiheit und Datenschutz (EAID) unterst\u00fctzt die<span class=\"Apple-converted-space\">\u00a0v<\/span>on der B\u00fcrgerrechtskoalition &#8222;<a href=\"https:\/\/thepublicvoice.org\/about-us\/\"  rel=\"noopener\">The Public Voice&#8220;<\/a> am 23. Oktober 2018 vorgelegten \u201eAllgemeinen Leitlinien f\u00fcr die k\u00fcnstliche Intelligenz\u201c (<a href=\"https:\/\/thepublicvoice.org\/ai-universal-guidelines\/\"  rel=\"noopener\">Universal Guidelines on Artificial Intelligence<span class=\"Apple-converted-space\">\u00a0 <\/span>&#8211; UGAI<\/a>). Die die Leitlinien werden inzwischen von mehr als 50 zivilgesellschaftlichen Organisationen unterst\u00fctzt.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p>Um den UGAI auch in der deutschsprachigen \u00d6ffentlichkeit eine bessere Verbreitung zu erm\u00f6glichen, haben wir den Text \u00fcbersetzt. F\u00fcr die deutschsprachige \u00dcbersetzung beanspruchen wir keine Urheberrechte &#8211; f\u00fcr eventuelle \u00dcbersetzungsfehler \u00fcbernehmen wir aber selbstverst\u00e4ndlich die Verantwortung.<\/p>\n<p><a href=\"https:\/\/thepublicvoice.org\/ai-universal-guidelines\/\"  rel=\"noopener\">Wortlaut der UGAI<\/a> auf der Website von The Public Voice. Hier finden Sie auch ein Online-Formular zur Unterst\u00fctzung der Leitlinien<\/p>\n<p><a href=\"https:\/\/thepublicvoice.org\/ai-universal-guidelines\/de\/\"  rel=\"noopener\">Deutscher Text<\/a>\u00a0bei The Public Voice<\/p>\n<p>&nbsp;<\/p>\n<h4><strong>Deutsche \u00dcbersetzung der UGAI:<\/strong><\/h4>\n<h4><strong>Allgemeine Leitlinien f\u00fcr die k\u00fcnstliche Intelligenz\u00a0<\/strong><\/h4>\n<p>Vorgelegt am 23. Oktober 2018 in Br\u00fcssel, Belgien<\/p>\n<p>Neue Entwicklungen in der K\u00fcnstlichen Intelligenz ver\u00e4ndern die Welt. Die Ver\u00e4nderungen betreffen viele Bereiche, von der Wissenschaft und Industrie bis hin zu Verwaltung und Finanzen. Der Bedeutungszuwachs von KI-Entscheidungen ber\u00fchrt die grundlegenden Rechte auf Fairness, Rechenschaftspflicht und Transparenz. Die Ergebnisse der modernen Datenanalyse haben f\u00fcr die Menschen erhebliche praktische Folgen. Sie wirken sich in den Bereichen Besch\u00e4ftigung, Wohnen, Kredit, Handel und Strafverfolgung aus. Viele dieser Techniken sind v\u00f6llig undurchsichtig, so dass der Einzelne nicht wei\u00df, ob er \u00fcberhaupt Gegenstand einer KI-Entscheidung war und ob die Entscheidung richtig und fair getroffen wurde.<\/p>\n<p>Wir schlagen diese allgemeinen Leitlinien vor, um \u00fcber das Design und die Verwendung von KI zu informieren und diese zu verbessern. Die Leitlinien zielen darauf ab, den Nutzen der KI zu maximieren, das Risiko zu minimieren und den Schutz der Menschenrechte zu gew\u00e4hrleisten. Diese Leitlinien sollten in ethische Standards einflie\u00dfen. Sie sollten in nationales Recht und internationale Vereinbarungen \u00fcbernommen, in die Praxis umgesetzt und beim Entwurf von Systemen ber\u00fccksichtigt werden. Wir stellen klar, dass die Hauptverantwortung f\u00fcr KI-Systeme bei den Institutionen zu liegen hat, welche solche Systeme finanzieren, entwickeln und einsetzen.<\/p>\n<ol>\n<li><strong>Recht auf Transparenz<\/strong>. Jeder Einzelne hat das Recht, die Grundlage einer KI-basierten Entscheidung zu kennen, die ihn betrifft. Dazu geh\u00f6rt die Kenntnis der in die Entscheidung einflie\u00dfenden Faktoren, der Verarbeitungslogik und der entscheidungsrelevanten Techniken.<\/li>\n<\/ol>\n<ol start=\"2\">\n<li><strong>Recht auf menschliche Bestimmung<\/strong>. Jeder Einzelne hat das Recht, dass die ihn betreffenden Entscheidungen letztlich von einem Menschen getroffen werden.<\/li>\n<\/ol>\n<ol start=\"3\">\n<li><strong>Identifikationspflicht<\/strong>. Die f\u00fcr das KI-System verantwortliche Institution muss der \u00d6ffentlichkeit bekannt gemacht werden.<\/li>\n<\/ol>\n<ol start=\"4\">\n<li><strong>Verpflichtung zur Fairness<\/strong>. Die f\u00fcr den KI-Einsatz verantwortliche Institution muss sicherstellen, dass das KI-System keine ungerechten Verh\u00e4ltnisse widerspiegelt, verzerrte Ergebnisse liefert und keine unzul\u00e4ssig diskriminierenden Entscheidungen trifft.<\/li>\n<\/ol>\n<ol start=\"5\">\n<li><strong>Folgenabsch\u00e4tzung und Rechenschaftspflicht<\/strong>. Ein KI-System sollte nur eingesetzt werden, nachdem die Zwecke, die Ziele, der Nutzen sowie die Risiken in angemessener Weise bewertet wurden. Institutionen, die KI-Systeme einsetzen, m\u00fcssen f\u00fcr dessen Entscheidungen verantwortlich sein<\/li>\n<\/ol>\n<ol start=\"6\">\n<li><strong>Richtigkeit, Zuverl\u00e4ssigkeit und G\u00fcltigkeit<\/strong>. Die Institutionen m\u00fcssen die Richtigkeit, Zuverl\u00e4ssigkeit und Validit\u00e4t von Entscheidungen gew\u00e4hrleisten.<\/li>\n<\/ol>\n<ol start=\"7\">\n<li><strong>Verpflichtung zur Datenqualit\u00e4t<\/strong>. Die Institute m\u00fcssen festlegen, welche Daten in die KI-Algorithmen einflie\u00dfen und sie m\u00fcssen sicherstellen, dass deren Qualit\u00e4t und Relevanz gew\u00e4hrleistet ist.<\/li>\n<\/ol>\n<ol start=\"8\">\n<li><strong>Verpflichtung zur Gew\u00e4hrleistung der \u00f6ffentlichen Sicherheit<\/strong>. Die Institutionen m\u00fcssen die Risiken f\u00fcr die \u00f6ffentliche Sicherheit bewerten, wenn KI-Systeme Ger\u00e4te steuern oder kontrollieren. Sie haben die erforderlichen Kontrollmechanismen zu implementieren, um die Sicherheit zu gew\u00e4hrleisten.<\/li>\n<\/ol>\n<ol start=\"9\">\n<li><strong>Verpflichtung zur Cybersicherheit<\/strong>. Institutionen m\u00fcssen KI-Systeme vor Bedrohungen sch\u00fctzen, die sich aus ihrer Vernetzung ergeben.<\/li>\n<\/ol>\n<ol start=\"10\">\n<li><strong>Verbot der geheimen Profilerstellung<\/strong>. Keine Institution darf ein System zur heimlichen Erstellung von Profilen einrichten oder betreiben.<\/li>\n<\/ol>\n<ol start=\"11\">\n<li><strong>Verbot des umfassenden Scorings<\/strong>. Kein Staat darf eine allgemeine Bewertung seiner B\u00fcrger oder Einwohner einrichten oder betreiben.<\/li>\n<\/ol>\n<ol start=\"12\">\n<li><strong>Abschaltpflicht<\/strong>. Jede Institution, die ein KI-System betreibt, hat die positive Verpflichtung zur Abschaltung des Systems, wenn die menschliche Kontrolle \u00fcber das System nicht l\u00e4nger gew\u00e4hrleistet ist.<\/li>\n<\/ol>\n<p>&nbsp;<\/p>\n<h4><b>Erl\u00e4uterndes Memorandum und Referenzen<\/b><\/h4>\n<h4><b>Kontext<\/b><\/h4>\n<p>Die Universal Guidelines on Artificial Intelligence (UGAI) weisen auf die wachsenden Herausforderungen durch intelligente Computersysteme hin. Sie enthalten konkrete Empfehlungen zur Verbesserung des Designs von KI-Systemen. Im Kern sollen UGAI die Transparenz und Rechenschaftspflicht f\u00fcr diese Systeme voranbringen und sicherstellen, dass die Menschen die Kontrolle \u00fcber die von ihnen geschaffenen Systeme behalten. Nicht alle Systeme fallen in den Anwendungsbereich dieser Richtlinien. Unser Anliegen sind jene Systeme, die sich auf die Rechte der Menschen auswirken. Vor allem d\u00fcrfen diese Systeme keinen Schaden anrichten.<\/p>\n<p>Die Erkl\u00e4rung kommt noch zur rechten Zeit. Regierungen in aller Welt entwickeln politische Vorschl\u00e4ge und schaffen \u00f6ffentliche und private Institutionen, um die Forschung und Entwicklung von \u201eKI&#8220; zu f\u00f6rdern. Dies hat enorme Auswirkungen auf die Gesellschaft, unabh\u00e4ngig davon, ob und inwieweit die \u00d6ffentlichkeit an der Gestaltung und Entwicklung solcher Systeme mitwirkt. Die UGAI sind eine gesellschaftliche Reaktion auf diese Herausforderungen.<\/p>\n<p>Die UGAI wurden auf der Internationalen Datenschutzkonferenz 2018 ver\u00f6ffentlicht, einem der weltweit bedeutendsten Treffen von Technologief\u00fchrern und Datenschutzexperten.<\/p>\n<p>Die UGAI bauen auf der bisherigen Arbeit von wissenschaftlichen Gesellschaften, Think Tanks, NGOs und internationalen Organisationen auf. Die UGAI beinhalten Elemente der Menschenrechtslehre, des Datenschutzrechts und ethischer Richtlinien. Die Leitlinien bauen auf<span class=\"Apple-converted-space\">\u00a0 <\/span>etablierten Grunds\u00e4tzen f\u00fcr die KI-Governance auf und sie schlagen neue Prinzipien vor, die bisher nicht in politischen Rahmenwerken enthalten sind.<\/p>\n<h4><b>Terminologie<\/b><\/h4>\n<p>Der Begriff &#8222;K\u00fcnstliche Intelligenz&#8220; (KI) ist weit und unpr\u00e4zise zugleich. Er beinhaltet Aspekte des maschinellen Lernens, regelbasierte Entscheidungsfindung und andere Computertechniken. Es gibt sogar unterschiedliche Meinungen dar\u00fcber, ob K\u00fcnstliche Intelligenz \u00fcberhaupt m\u00f6glich ist. Die UGAI r\u00e4umen lediglich ein, dass der Begriff KI im allgemeinen Sprachgebrauch ein breites Spektrum verwandter Themen abdeckt und sie verwenden den Begriff, um die aktuelle Debatte anzuregen. Die Leitlinien versuchen nicht, die begrifflichen Grenzen von KI zu definieren, au\u00dfer dass die KI einen gewissen Grad an automatisierter Entscheidungsfindung erfordert. Der Begriff &#8222;Leitlinien&#8220; folgt der Praxis politischer Festlegungen, die sich in erster Linie an Regierungen und private Unternehmen richten.<\/p>\n<p>Die UGAI enthalten Verpflichtungen f\u00fcr &#8222;Institutionen&#8220; und Rechte der &#8222;Einzelnen&#8220;. Dies ergibt sich aus den fairen Informationspraktiken im Bereich des Datenschutzes. Die UGAI basieren auf dem Schutz des Einzelnen als grundlegendem Ziel. Unter \u00f6ffentlichen und privaten Institutionen werden diejenigen verstanden, die KI-Systeme entwickeln und einsetzen. Der Begriff &#8222;Institution&#8220; wurde anstelle des vertrauteren Begriffs &#8222;Organisation&#8220; gew\u00e4hlt, um den dauerhaften und nachhaltigen Charakter der in den Leitlinien festgelegten Verpflichtungen zu unterstreichen. Ein Prinzip richtet sich an &#8222;nationale Regierungen&#8220;. Der Grund daf\u00fcr wird im Folgenden erl\u00e4utert.<\/p>\n<h4><b>Anwendung<\/b><\/h4>\n<p>Diese Leitlinien sollten in ethische Normen aufgenommen, in nationales Recht und internationale Vereinbarungen \u00fcbernommen und in die Gestaltung von Systemen integriert werden.<\/p>\n<h4><b>Die Prinzipien<\/b><\/h4>\n<p>Die Elemente des <b>Transparenzprinzips<\/b> finden sich in mehreren modernen Datenschutzgesetzen, darunter dem US-Datenschutzrecht, der EU-Datenschutzrichtlinie, der Datenschutzgrundverordnung und in dem \u00dcbereinkommen 108 des Europarates. Dieses Prinzip soll eine unabh\u00e4ngige Rechenschaftspflicht f\u00fcr automatisierte Entscheidungen erm\u00f6glichen, wobei der Schwerpunkt auf dem Recht der Einzelnen liegt, die Gr\u00fcnde von f\u00fcr sie nachteiligen Entscheidungen zu kennen. Auch wenn es einem Einzelnen in der Praxis vielleicht nicht immer m\u00f6glich ist, die Grundlagen einer bestimmten Entscheidung richtig zu interpretieren, ist es nicht \u00fcberfl\u00fcssig, eine solche Erkl\u00e4rung zu erm\u00f6glichen.<\/p>\n<p>Das <b>Recht auf eine menschliche Bestimmung<\/b> bekr\u00e4ftigt, dass Menschen und nicht Maschinen f\u00fcr automatisierte Entscheidungen verantwortlich sind. In vielen F\u00e4llen, wie beispielsweise beim Betrieb eines autonomen Fahrzeugs, w\u00e4re es nicht m\u00f6glich oder praktikabel, eine menschliche Entscheidung vor einer automatisierten Entscheidung einzuf\u00fcgen. Das \u00e4ndert aber nichts an der Notwendigkeit, die Rechenschaftspflicht zu gew\u00e4hrleisten. Wenn also ein automatisiertes System versagt, sollte entsprechend diesem Prinzip eine menschliche Beurteilung des Ergebnisses vorgenommen werden.<\/p>\n<p><b>Identifizierungspflicht<\/b>. Dieses Prinzip reagiert auf die Identifikations-Asymmetrie, die bei der Interaktion zwischen Individuen und KI-Systemen entsteht. Ein KI-System wei\u00df typischerweise sehr viel \u00fcber eine Person; die Person kennt vielleicht nicht einmal den Betreiber des KI-Systems. Die Identifizierungspflicht bildet die Grundlage f\u00fcr die KI-Verantwortlichkeit, die darin besteht, die Identit\u00e4t eines KI-Systems und der verantwortlichen Institution klarzustellen.<\/p>\n<p>Die <b>Fairness-Verpflichtung<\/b> erkennt an, dass alle automatisierten Systeme Entscheidungen treffen, die Vorurteile und Diskriminierung widerspiegeln. Aber solche Entscheidungen sollten nicht normativ ungerecht sein. Auf die Frage, was ungerecht oder unzul\u00e4ssig ist, gibt es keine einfache Antwort. Die Bewertung h\u00e4ngt oft vom Kontext ab. Die Fairness-Verpflichtung macht jedoch deutlich, dass eine Bewertung der tats\u00e4chlichen Ergebnisse allein nicht ausreicht, um ein KI-System zu bewerten. Auch die normativen Folgen m\u00fcssen bewertet werden, einschlie\u00dflich derjenigen, die bereits vor dem KI-Einsatz existierten oder durch ein KI-System verst\u00e4rkt werden k\u00f6nnen.<\/p>\n<p>Die <b>Folgenabsch\u00e4tzungs- und Rechenschaftspflicht<\/b> bezieht sich auf die Verpflichtung, ein KI-System vor und w\u00e4hrend der Implementierung zu beurteilen. Was die Folgenabsch\u00e4tzung betrifft, so besteht ein zentraler Zweck dieser Verpflichtung darin festzustellen, ob ein KI-System eingerichtet werden sollte. Ergibt eine Folgenabsch\u00e4tzung erhebliche Risiken, wie sie in den Grunds\u00e4tzen zur \u00f6ffentlichen Sicherheit und Cybersicherheit beschrieben sind, so sollte das Projekt nicht weiter verfolgt werden.<\/p>\n<p>Die <b>Verpflichtungen zur Genauigkeit, Zuverl\u00e4ssigkeit und G\u00fcltigkeit<\/b> legen die Hauptverantwortlichkeiten fest, die mit dem Ergebnis automatisierter Entscheidungen verbunden sind. Die Aspekte sind sowohl einzeln als auch in der Gesamtschau zu interpretieren.<\/p>\n<p>Das <b>Prinzip der Datenqualit\u00e4t<\/b> folgt aus den vorhergehenden Verpflichtungen.<\/p>\n<p>Die<b> Verpflichtung zur \u00f6ffentlichen Sicherheit<\/b> reagiert darauf, dass KI-Systeme Ger\u00e4te in der physischen Welt steuern. Aus diesem Grund m\u00fcssen die Institutionen sowohl die damit verbundenen Risiken bewerten als auch angemessene Vorsichtsma\u00dfnahmen ergreifen, welche den Risiken begegnen.<\/p>\n<p>Die <b>Cybersicherheitsverpflichtung<\/b> folgt aus der Verpflichtung zur \u00f6ffentlichen Sicherheit und unterstreicht das Risiko, dass selbst gut gestaltete Systeme das Ziel feindlicher Akteure sein k\u00f6nnen. Wer KI-Systeme entwickelt und einsetzt, muss diese Risiken ber\u00fccksichtigen.<\/p>\n<p>Das <b>Verbot der heimlichen Profilbildung<\/b> folgt aus der Identifizierungspflicht. Ziel ist es, die bei KI-Systemen zunehmend auftretende Informationsasymmetrie zu vermeiden und die M\u00f6glichkeit einer unabh\u00e4ngigen Rechenschaftspflicht zu gew\u00e4hrleisten.<\/p>\n<p>Das <b>Verbot des umfassenden Scorings<\/b> soll dem Risiko begegnen, dass eine Regierung dem Individuum einen einzigen, multifunktionalen Scorewert zuweist. Das Datenschutzrecht beurteilt universelle Identifikatoren, die die Profilerstellung von Personen erm\u00f6glichen, negativ. Solche Identifikatoren sind vielfach reguliert und teilweise verboten. Noch gr\u00f6\u00dfer ist die Sorge im Hinblick auf eine umfassende individuelle Bewertung, die als &#8222;einheitlicher Scorewert&#8220; bezeichnet wird. Ein einheitlicher Score spiegelt nicht nur ein umfassendes Profil sondern auch ein vorgegebenes Ergebnis \u00fcber mehrere Bereiche der menschlichen Aktivit\u00e4t hinweg wider. Es besteht die Gefahr, dass es auch im privaten Sektor zu einheitlichen Scores kommt. Zwar ist denkbar, solche Systeme dem Wettbewerb auf dem Markt und staatlichen Vorschriften zu unterwerfen. Aber da der Einzelne keine M\u00f6glichkeit hat, einem von einer Regierung zugewiesenen einheitlichen Score entgegenzutreten, sollten solche Scores verboten werden.<\/p>\n<p>Die <b>Abschaltpflicht<\/b> ist das ultimative Bekenntnis zur Verantwortlichkeit f\u00fcr ein KI-System. Die Verpflichtung setzt voraus, dass die Systeme unter menschlicher Kontrolle bleiben m\u00fcssen. Ist dies nicht mehr m\u00f6glich, sollte das System abgeschaltet werden.<\/p>\n<p>(\u00dcbersetzt aus dem Englischen von Peter Schaar unter Verwendung von <a href=\"http:\/\/deepl.com\/\">deepl.com<\/a>)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>EAID unterst&uuml;tzt die Universal Guidelines on Artificial Intelligence&nbsp; (UGAI) Die Europ&auml;ische Akademie f&uuml;r Informationsfreiheit und Datenschutz (EAID) unterst&uuml;tzt die&nbsp;von der B&uuml;rgerrechtskoalition &bdquo;The Public Voice&ldquo; am 23. Oktober 2018 vorgelegten &bdquo;Allgemeinen Leitlinien f&uuml;r die k&uuml;nstliche Intelligenz&ldquo; (Universal Guidelines on Artificial Intelligence&nbsp; &ndash; UGAI). Die die Leitlinien werden inzwischen von mehr als<\/p>\n","protected":false},"author":17,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1553,1554,10,1555,5,1556,1557,221,1558,1174,6,3,7,1559,4,12,17,193,1560,1561,15,1562,236,1551,1552,16,14,1563,1564,8,1565],"tags":[],"class_list":["post-2631","post","type-post","status-publish","format-standard","hentry","category-abschaltpflicht","category-ai","category-allgemein","category-allgemeine-leitlinien-fuer-die-kuenstliche-intelligenz","category-bsi","category-cybersicherheit","category-datenqualitaet","category-eaid-blog","category-folgenabschaetzung-und-rechenschaftspflicht","category-identifikationspflicht","category-isms","category-isms-bsi-iso-27001","category-iso27001","category-ki","category-notfallmanagement","category-penetrationstest","category-penetrationstests","category-peter-schaar-der-blog","category-recht-auf-menschliche-bestimmung","category-richtigkeit","category-risikomanagement","category-scoring","category-transparenz","category-ugai","category-universal-guidelines-on-artificial-intelligence","category-unternehmen","category-veranstaltungen","category-verbot-des-umfassenden-scorings","category-verpflichtung-zur-fairness","category-zertifizierung-audit","category-zuverlaessigkeit-und-gueltigkeit"],"_links":{"self":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/2631","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/users\/17"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2631"}],"version-history":[{"count":3,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/2631\/revisions"}],"predecessor-version":[{"id":3161,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=\/wp\/v2\/posts\/2631\/revisions\/3161"}],"wp:attachment":[{"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2631"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2631"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kai-wittenburg.de\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2631"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}