подогнать решение под ответ)) хаха, это очень по-информатичному. видео хорошее. люблю, когда показывают неправильные попытки что-то посчитать - это похоже на то, когда сам пытаешься что-то придумать. скорее всего, отражает реальный процесс раздумий открывателя. момент с десятичной системой взорвал голову!!
Проблема отрицательных чисел в том, что их неудобно хранить. В моем процессоре реализован отдельный от основной памяти байт, который показывает знак числа
@@qubane , не знаю какой бит именно ты имеешь ввиду под наиболее значимым. Если это старший или младший, то они не дают никакой информации про тип числа хранящейся в ячейке. В своем процесоре лично я использовать так званый знаковый бит, из-за чего мой 16битный монстр на full CLA (a-b b-a a+b ab) Alu с умножителем, резко перекласифицировался в 15 битного червя. Проблема стоит в том, что процессор не знает тип входных данных, по итогу когда мы слаживаем к примеру -1 и 4 1111111111111111 + 0000000000000100 на выходе мы получаем число 1|000000000000011 и на этот результат будет накладываться Carryflag и вместо обещеной 3йки мы получаем пиздюлей от тимлида. Поэтому у меня лично сейчас остро стоит проблема, как и где процесор хранит данные о типе значений хранящихся в памяти, ибо в зависимости от знака и типа, результат и выставление флагов в EFLAGS будет разным, а выделять под это дополнительные 2 бита слова как-то не хочеться
подогнать решение под ответ)) хаха, это очень по-информатичному. видео хорошее. люблю, когда показывают неправильные попытки что-то посчитать - это похоже на то, когда сам пытаешься что-то придумать. скорее всего, отражает реальный процесс раздумий открывателя.
момент с десятичной системой взорвал голову!!
Ничего не понятно но очень интересно
Проблема отрицательных чисел в том, что их неудобно хранить. В моем процессоре реализован отдельный от основной памяти байт, который показывает знак числа
Вроде же их можно и просто так хранить, и использовать наиболее значимый бит для определения знака
@@qubane , не знаю какой бит именно ты имеешь ввиду под наиболее значимым. Если это старший или младший, то они не дают никакой информации про тип числа хранящейся в ячейке. В своем процесоре лично я использовать так званый знаковый бит, из-за чего мой 16битный монстр на full CLA (a-b b-a a+b ab) Alu с умножителем, резко перекласифицировался в 15 битного червя.
Проблема стоит в том, что процессор не знает тип входных данных, по итогу когда мы слаживаем к примеру -1 и 4
1111111111111111 + 0000000000000100 на выходе мы получаем число 1|000000000000011 и на этот результат будет накладываться Carryflag и вместо обещеной 3йки мы получаем пиздюлей от тимлида. Поэтому у меня лично сейчас остро стоит проблема, как и где процесор хранит данные о типе значений хранящихся в памяти, ибо в зависимости от знака и типа, результат и выставление флагов в EFLAGS будет разным, а выделять под это дополнительные 2 бита слова как-то не хочеться
мне кажется лучше было бы показать как это работает если начать считать назад
уменьшается на 1 👍
Ah yes