Об этом мечтали о тначала развития интернета, и всё упиралось в то, что нет алгоритма идентификации похожих с точки зрения человека объектов. Чуть изменится код страницы — программу, прекрасно работающую и долго отлаживавшуюся приходится переписывать. Пошли другим путём — RSS-каналы, включающие подходящую для обработки информацию. Появился поисковик, работающий исключительно на предоставленной ему поисковой информации (не помню название), организованной в XML.
Программы точного повторения манипуляций типа Automation тоже не подойдут в общем случае, так как они зависят не только от размера и положения окна брауцзера, но и от задержек компьютера другими фоновыми программами. Получается, что лучшее решение — нанять серфера для выполнения рутинных операций.
А так — программа даже на внедрённом в код страницы JS может сделать всё с анализом документа, вопрос только в том ,кто её будет писать.