увеличение числа соседей усложняет модель и сглаживает границу или упрощает ее?
Понятие "сложности модели" в основном используется в контексте параметрических моделей - таких, обучение которых сводится к подгону параметров под данные. Это, например, линейные модели и нейронки, где выучиваются коэффициенты, или древесные модели, где выучиваются бинарные решающие правила (по какому признаку и по какому его значению нынче разветвиться).
И в таких моделях чем больше параметров, тем больше у модели возможностей подогнаться под данные, а значит, тем более сложную границу модель может выучить, но и тем больше возможность оверфитнуться. В этом смысле, чем больше параметров, тем сложнее модель, тем больше обучения и переобучения.
А метод ближайших соседей - это непараметрическая модель, в том смысле, что её обучение не сводится к изменению параметров. Вообще, у knn обучаемых параметров вообще нет, а есть только гиперпараметры - число соседей и метрика расстояния. Соответственно, связка "число параметров - сложность модели" для knn вообще не применима.