Ничего не будет.
Робот, который умеет выполнять js,
(почти наверняка) не смотрит в robots.txt, когда генерирует страницу.
Робот, который смотрит в robots.txt умеет только делать простые http-запросы и если он не получит js-файл, с которым он и так ничего не сможет сделать, ничего страшного не случится.
UPD: Хотя, похоже, я не прав, потому что
документация Google явно говорит, что не стоит запрещать, если не уверены:
При помощи файла robots.txt вы можете запретить сканирование таких файлов, как вспомогательные изображения, скрипты и файлы стилей, если считаете, что они лишь в незначительной степени влияют на оформление страниц. Однако не следует блокировать доступ к ним, если это может затруднить поисковому роботу интерпретацию контента. В противном случае страницы могут быть проанализированы неправильно.