Итак, я нашел этого замечательного блоггера Вимарш Карбхари, и у него в блоге есть несколько замечательных материалов! Так что, пожалуйста, посмотрите на него, ведь он создатель Acing AI. И сегодня я попытаюсь ответить на его вопрос в интервью Microsoft AI Interview из этого блога. И обратите внимание, что мое решение не будет оптимизировано, и я всегда открыт для обучения и роста, поэтому, если вы знаете более оптимальное решение, прокомментируйте ниже.

Кроме того, я не буду отвечать на вопросы в числовом порядке.

Объедините k (в данном случае k = 2) массивов и отсортируйте их.

Для этого я бы использовал пузырьковую сортировку, я знаю, что это не самый эффективный алгоритм сортировки, но его легко описать и реализовать.

Каковы разные показатели функции затрат / регуляризации L1 и L2?

Я бы сказал, L1 - это абсолютная разница между прогнозируемым значением и истинным значением. Для L2 я бы сказал, что это разница среднеквадратических ошибок. Я реализовал и сравнил множество комбинаций функции стоимости L1 и L2 с регуляризацией в этой позиции t. Кроме того, регуляризатор L1 - это сумма абсолютных значений веса, а L2 - сумма квадратов всех весов.

Как вы находите процентиль? Напишите для него код.

Для этого давайте просто зададим простой вопрос из Math is Fun. Учитывая приведенную выше таблицу, можно получить время, когда 30% людей посетили торговый центр.

Сначала я бы получил 30% -ный процентиль и среднее значение времени, очевидно, что это не самый точный ответ, как показано ниже. Но мы можем получить общее представление.

В чем разница между хорошей и плохой визуализацией данных?

Хорошо, на это у нас может быть много разных ответов, мой ответ был бы примерно таким, когда мы не обрабатываем выбросы должным образом и не визуализируем их.

Допустим, у нас есть массив чисел, и мы видим огромное число (7777) среди меньших чисел. Когда мы визуализируем этот массив вместе, он выглядит примерно так, как показано ниже.

Правое изображение → Исходное изображение
Среднее изображение → Нормализованное значение
Левое изображение → Стандартизованное значение

Как видно выше, даже если мы нормализуем или стандартизируем значения, созданный график будет очень искажен. В этом посте я рассмотрел нормализацию, стандартизацию и пакетную нормализацию.

Как быстрее вычислить обратную матрицу, поигравшись с вычислительными уловками?

На самом деле я понятия не имею, каков точный ответ, но после исследования я нашел метод, называемый методом Гаусса-Жордана, однако он очень сложен. (чтобы увидеть реализацию на python, пожалуйста, нажмите здесь.) И мне удалось найти более простое решение, как показано ниже, и я реализовал этот метод.

Определить дисперсию

По-моему, дисперсию я бы описал как сумму квадратов разницы каждой точки данных с учетом среднего значения всех данных. Другими словами, есть много разных данных. И вообще, в Math is Fun есть потрясающая диаграмма, описывающая это.

Интерактивный код

Для Google Colab вам потребуется учетная запись Google для просмотра кодов, а также вы не можете запускать сценарии только для чтения в Google Colab, поэтому сделайте копию на своем игровом поле. Наконец, я никогда не буду спрашивать разрешения на доступ к вашим файлам на Google Диске, просто к сведению. Удачного кодирования!

Чтобы получить доступ к коду в Google Colab, нажмите здесь.

Заключительные слова

Я всегда открыт для новых, более эффективных и эффективных идей и ответов, поэтому, если вы их знаете, оставьте комментарий ниже!

Если будут обнаружены какие-либо ошибки, пожалуйста, напишите мне на [email protected], если вы хотите увидеть список всех моих писем, пожалуйста, просмотрите мой сайт здесь.

Тем временем подпишитесь на меня в моем твиттере здесь и посетите мой веб-сайт или мой канал Youtube для получения дополнительной информации. Я также сделал сравнение Decoupled Neural Network здесь, если вам интересно.

Ссылка

  1. Вимарш Карбхари - средний. (2015). Medium.com. Получено 5 апреля 2018 г. с сайта https://medium.com/@vimarshk.
  2. Вопросы на собеседовании с ИИ Microsoft - Успешное собеседование с ИИ. (2018). Середина. Получено 5 апреля 2018 г. с сайта https://medium.com/acing-ai/microsoft-ai-interview-questions-acing-the-ai-interview-be6972f790ea.
  3. Https://www.geeksforgeeks.org/bubble-sortBubble Сортировка - GeeksforGeeks. (2014). GeeksforGeeks. Получено 5 апреля 2018 г. с сайта https://www.geeksforgeeks.org/bubble-sort/.
  4. Только Numpy: реализация различных комбинаций нормы / регуляризации L1 / L2 для глубокой нейронной сети…. (2018). К науке о данных. Получено 5 апреля 2018 г. с сайта https://towardsdatascience.com/only-numpy-implementing-different-combination-of-l1-norm-l2-norm-l1-regularization-and-14b01a9773b.
  5. Различия между L1 и L2 как функция потерь и регуляризация. (2018). Chioka.in. Получено 5 апреля 2018 г. с сайта http://www.chioka.in/differences-between-l1-and-l2-as-loss-function-and-regularization/.
  6. Понимание пакетной нормализации с примерами в Numpy и Tensorflow с интерактивным кодом. (2018). К науке о данных. Получено 5 апреля 2018 г. с сайта https://towardsdatascience.com/understanding-batch-normalization-with-examples-in-numpy-and-tensorflow-with-interactive-code-7f59bb126642.
  7. Нормальное распределение. (2018). Mathsisfun.com. Получено 5 апреля 2018 г. с сайта https://www.mathsisfun.com/data/standard-normal-distribution.html.
  8. numpy.linalg.inv - Руководство по NumPy v1.12. (2018). Docs.scipy.org. Получено 5 апреля 2018 г. с сайта https://docs.scipy.org/doc/numpy-1.12.0/reference/generated/numpy.linalg.inv.html.
  9. Исключение Гаусса. (2018). En.wikipedia.org. Получено 5 апреля 2018 г. с сайта https://en.wikipedia.org/wiki/Gaussian_elimination#Finding_the_inverse_of_a_matrix.
  10. Тома, М. (2013). Решение линейных уравнений с исключением Гаусса. Мартин Тома. Получено 5 апреля 2018 г. с сайта https://martin-thoma.com/solving-linear-equations-with-gaussian-elimination/.
  11. матрица, с. (2018). ярлык для поиска инверсии матрицы. Math.stackexchange.com. Получено 5 апреля 2018 г. с сайта https://math.stackexchange.com/questions/21533/shortcut-for-finding-a-inverse-of-matrix.
  12. Стандартное отклонение и дисперсия. (2018). Mathsisfun.com. Получено 5 апреля 2018 г. с сайта http://www.mathsisfun.com/data/standard-deviation.html.