Вариантов много:
1.
requests +
lxml
2.
scrapy
3.
grab
Только не понятно откуда все-таки данные грабить, из БД или какого-то закрытого ресурса. Парсер обычно не выносит никакие данные из БД в GUI, его задача: залезть на какой-нибудь ресурс, достать оттуда данные, преобразовать их структуру и сохранить в БД, xml, csv, json...
Почему бы просто не сохранять в csv, а в качестве GUI использовать Excel?