Не смог разобраться с API, зато нашёл решение проблемы в виде парсинга.
Использовал HtmlAgilityPack для извлечения текста статьи со страницы. Кидаю код, в котором тестировал этот парсинг может кому пригодится:
public static void GetArticle() //
{
string html = "https://en.wikipedia.org/wiki/Gorillaz ";
HtmlDocument HD = new HtmlDocument();
var web = new HtmlWeb
{
AutoDetectEncoding = false,
OverrideEncoding = Encoding.UTF8,
};
HD = web.Load(html); //Скачиваем всю HTML страницу
HtmlNodeCollection NoAltElements;
NoAltElements = HD.DocumentNode.SelectNodes("//div[@class='mw-content-ltr']/p"); //Из элемента с классом 'mw-content-ltr'
//Берём весь текст,
//который находится в тэге <p>
string outputText = "";
// проверка на наличие найденных узлов
if (NoAltElements != null)
{
foreach (HtmlNode HN in NoAltElements)
{
//Получаем строчки
outputText = HN.InnerText;
}
}
Console.WriteLine(outputText);
}