Здравствуйте, 12345_, Вы писали:
_>Об этом мечтали о тначала развития интернета, и всё упиралось в то, что нет алгоритма идентификации похожих с точки зрения человека объектов. Чуть изменится код страницы — программу, прекрасно работающую и долго отлаживавшуюся приходится переписывать.
Если она будет ждать точно такую же страницу, то да. А если идентификация будет происходить по большому количеству свойств?
_>Пошли другим путём — RSS-каналы, включающие подходящую для обработки информацию. Появился поисковик, работающий исключительно на предоставленной ему поисковой информации (не помню название), организованной в XML.
RSS — это же новости. С помощью них описывают только последнюю информацию. Или нет?
_>Программы точного повторения манипуляций типа Automation тоже не подойдут в общем случае, так как они зависят не только от размера и положения окна брауцзера, но и от задержек компьютера другими фоновыми программами. Получается, что лучшее решение — нанять серфера для выполнения рутинных операций.
Конечно, не по временным промежуткам повторять действия пользователя и не только по расположению элемента на странице, а по куче свойств.
_>А так — программа даже на внедрённом в код страницы JS может сделать всё с анализом документа, вопрос только в том ,кто её будет писать.
А JScript умеет разбирать текст отображаемый броузером на абзацы?